أبلمقالات

ميزة جديدة من أبل تسمح لها بالدخول لصور المستخدمين الخاصة !

تقول شركة آبل إن نظامها آمن - ويقول منتقدوها عكس ذلك

تراهن شركة آبل على سمعتها على الخصوصية. روجت الشركة للرسائل المشفرة عبر البيئي ، وشجعت وضع قيود على كيفية قيام تطبيقات الأجهزة المحمولة بجمع البيانات ، وحاربت وكالات إنفاذ القانون التي تبحث عن سجلات المستخدمين. لكن خلال الأسبوع الماضي ، كانت شركة آبل تحارب الاتهامات بأن إصدارها القادم لنظامي التشغيل iOS و iPadOS سيضعف خصوصية المستخدم.

ينبع النقاش من إعلان Apple يوم الخميس ، الفكرة بسيطة جدًا: تريد Apple محاربة الاعتداء الجنسي على الأطفال ، وتتخذ المزيد من الخطوات للعثور عليها وإيقافها. لكن المنتقدين يقولون إن استراتيجية آبل قد تضعف سيطرة المستخدمين على هواتفهم ، مما يجعلهم يعتمدون على وعد آبل بأنها لن تسيء استخدام سلطتها. وقد سلط رد شركة Apple الضوء على مدى تعقيد المحادثة -.

ماذا أعلنت شركة آبل الأسبوع الماضي؟

أعلنت شركة Apple عن ثلاثة تغييرات سيتم طرحها في وقت لاحق من هذا العام – وكلها تتعلق بالحد من الاعتداء الجنسي على الأطفال ولكنها تستهدف تطبيقات مختلفة بمجموعات ميزات مختلفة.

يؤثر التغيير الأول على تطبيق بحث Apple و Siri. إذا بحث أحد المستخدمين عن مواضيع تتعلق بالاعتداء الجنسي على الأطفال ، فستوجهه Apple إلى موارد للإبلاغ عنها أو للحصول على مساعدة في جذب الانتباه إليها. سيتم طرح هذا في وقت لاحق من هذا العام على iOS 15 و watchOS 8 و iPadOS 15 و macOS Monterey ، وهو أمر غير مثير للجدل إلى حد كبير.

ومع ذلك ، فقد ولدت التحديثات الأخرى رد فعل عنيف أكثر بكثير. يضيف أحدهم خيار الرقابة الأبوية إلى الرسائل ، ويحجب الصور الجنسية الصريحة للمستخدمين الذين تقل أعمارهم عن 18 عامًا ويرسل تنبيهًا إلى الوالدين إذا كان الطفل في سن 12 عامًا أو أقل من المشاهدة أو أرسل هذه الصور.

تقوم الميزة الجديدة النهائية بالبحث في صور iCloud Photos للعثور على مواد الاعتداء الجنسي على الأطفال ، أو CSAM ، وإبلاغ مسؤولي Apple – الذين يمكنهم نقلها إلى المركز الوطني للأطفال المفقودين والمستغلين ، أو NCMEC. تقول Apple إنها صممت هذه الميزة خصيصًا لحماية خصوصية المستخدم أثناء العثور على محتوى غير قانوني. يقول النقاد أن نفس هذه الاستراتيجية الجديدة وهذه التقنية تفتح باب خلفي أمني.

ماذا تفعل APPLE بالرسائل؟

تقدم Apple ميزة الرسائل التي تهدف إلى حماية الأطفال من الصور غير اللائقة. إذا اشترك الآباء ، فستقوم الأجهزة التي تضم مستخدمين أقل من 18 عامًا بمسح الصور الواردة والصادرة باستخدام مُصنِّف صور مُدرب على المواد الإباحية ، بحثًا عن محتوى “جنسي صريح”. (تقول Apple إنها لا تقتصر من الناحية الفنية على العُري ولكن مرشح العُري هو وصف عادل.) إذا اكتشف المصنف هذا المحتوى ، فإنه يحجب الصورة المعنية ويسأل المستخدم عما إذا كان يريد حقًا عرضها أو إرسالها.

لقطة شاشة لمرشح رسائل Apple للمحتوى الجنسي الصريح.

التوسع في تطبيقات الطرف الثالث

قالت Apple إنه على الرغم من أنه ليس لديها أي شيء لمشاركته اليوم فيما يتعلق بالإعلان ، فإن توسيع ميزات سلامة الأطفال إلى أطراف ثالثة بحيث يكون المستخدمون محميون على نطاق أوسع سيكون هدفًا مرغوبًا فيه. لم تقدم Apple أي أمثلة محددة ، ولكن أحد الاحتمالات هو إتاحة ميزة أمان الاتصال لتطبيقات مثل Snapchat أو Instagram أو WhatsApp بحيث يتم تعتيم الصور الجنسية الصريحة التي يتلقاها الطفل.

الاحتمال الآخر هو أن نظام اكتشاف CSAM المعروف من Apple يمكن توسيعه ليشمل تطبيقات الطرف الثالث التي تقوم بتحميل الصور في مكان آخر غير iCloud Photos.

لم تقدم Apple إطارًا زمنيًا بشأن متى يمكن توسيع ميزات سلامة الأطفال إلى أطراف ثالثة ، مشيرة إلى أنه لا يزال يتعين عليها إكمال اختبار ونشر الميزات ، وقالت الشركة أيضًا إنها ستحتاج إلى التأكد من أن أي توسع محتمل لن تقويض خصائص الخصوصية أو فعالية الميزات.

بشكل عام ، قالت شركة آبل إن توسيع الميزات إلى أطراف ثالثة هو النهج العام للشركة ، ومنذ أن قدمت دعمًا لتطبيقات الطرف الثالث مع طرح متجر التطبيقات على iPhone OS 2 في عام 2008.

التحديث – الذي يأتي إلى الحسابات التي تم إعدادها كعائلات في iCloud على iOS 15 و iPadOS 15 و macOS Monterey – يتضمن أيضًا خيارًا إضافيًا. إذا نقر المستخدم على هذا التحذير وكان عمره أقل من 13 عامًا ، فسيتمكن تطبيق “الرسائل” من إخطار أحد الوالدين بأنه قام بذلك. سيرى الأطفال تعليقًا تحذيريًا بأن والديهم سيتلقون الإشعار ، ولن يرى الوالدان الرسالة الفعلية. لا يقوم النظام بإبلاغ وسطاء Apple أو أطراف أخرى بأي شيء.

يتم الكشف عن الصور على الجهاز ، وهو ما تقول شركة آبل إنه يحمي الخصوصية. ويتم إخطار أولياء الأمور إذا أكد الأطفال بالفعل أنهم يريدون مشاهدة محتوى للبالغين أو إرساله ، وليس إذا ما تلقوه ببساطة. في الوقت نفسه ، أثار منتقدون مثل كيندرا ألبرت ، أستاذة عيادة Cyberlaw في جامعة هارفارد ، مخاوف بشأن الإخطارات – قائلين إنهم قد ينتهي بهم الأمر إلى السيطرة على الأطفال المثليين أو المتحولين جنسيًا ، على سبيل المثال ، من خلال تشجيع والديهم على التطفل عليهم.

ماذا يفعل نظام المسح الضوئي الجديد لـ ICLOUD PHOTOS من APPLE؟

يركز نظام مسح الصور على iCloud على البحث عن صور الاعتداء الجنسي على الأطفال ، والتي تعتبر حيازتها أمرًا غير قانوني. إذا كنت من مستخدمي iOS أو iPadOS في الولايات المتحدة وقمت بمزامنة الصور مع iCloud Photos ، فسيقوم جهازك بالتحقق محليًا من هذه الصور مقابل قائمة CSAM المعروفة. إذا اكتشفت ما يكفي من التطابقات ، فسوف تنبه وسطاء Apple وتكشف تفاصيل التطابقات. إذا أكد الوسيط وجود CSAM ، فسيقوم بتعطيل الحساب وإبلاغ السلطات القانونية بالصور.

هل يقوم CSAM بفكرة جديدة؟

على الاطلاق. يقوم Facebook و Twitter و Reddit والعديد من الشركات الأخرى بفحص ملفات المستخدمين ، غالبًا باستخدام أداة من صنع Microsoft تسمى PhotoDNA. كما أنهم مطالبون قانونًا بالإبلاغ عن CSAM إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ، وهي منظمة غير ربحية تعمل جنبًا إلى جنب مع سلطات إنفاذ القانون.

لكن أبل قد حدت من جهودها حتى الآن. قالت الشركة سابقًا إنها تستخدم تقنية مطابقة الصور للعثور على استغلال الأطفال. لكن في مكالمة مع المراسلين ، قالت إنها لم تفحص بيانات صور iCloud مطلقًا. (أكدت أنها قامت بالفعل بمسح بريد iCloud ولكنها لم تقدم أي تفاصيل أخرى حول فحص خدمات Apple الأخرى.)

هل يختلف نظام APPLE الجديد عن عمليات المسح التي تجريها الشركات الأخرى؟

يتم تشغيل فحص CSAM النموذجي عن بعد ويبحث في الملفات المخزنة على الخادم. على النقيض من ذلك ، يتحقق نظام Apple من المطابقات محليًا على جهاز iPhone أو iPad.

ويعمل هذا النظام على النحو التالي. عند تمكين iCloud Photos على أحد الأجهزة ، يستخدم الجهاز أداة تسمى NeuralHash لتقسيم هذه الصور إلى تجزئة – وهي في الأساس سلاسل من الأرقام تحدد الخصائص الفريدة للصورة ولكن لا يمكن إعادة بنائها للكشف عن الصورة نفسها. بعد ذلك ، يقارن هذه التجزئات بقائمة مخزنة من التجزئات من NCMEC ، والتي تجمع ملايين التجزئات المقابلة لمحتوى CSAM المعروف. (مرة أخرى ، كما ذكر أعلاه ، لا توجد صور أو مقاطع فيديو فعلية.)

إذا وجد نظام Apple تطابقًا ، فسيقوم هاتفك بإنشاء “قسيمة أمان” يتم تحميلها على iCloud Photos. تشير كل قسيمة أمان إلى وجود تطابق ، لكنها لا تنبه أي وسيط وتقوم بتشفير التفاصيل ، لذلك لا يمكن لموظف Apple الاطلاع عليها ومعرفة الصورة المطابقة. ومع ذلك ، إذا كان حسابك ينشئ عددًا معينًا من القسائم ، فسيتم فك تشفير جميع القسائم ووضع علامة عليها للمشرفين البشريين في Apple – والذين يمكنهم بعد ذلك مراجعة الصور ومعرفة ما إذا كانت تحتوي على CSAM.

تؤكد Apple أنها تنظر حصريًا إلى الصور التي تقوم بمزامنتها مع iCloud ، وليس الصور المخزنة على جهازك فقط. يخبر المراسلين أن تعطيل iCloud Photos سيؤدي إلى إلغاء تنشيط جميع أجزاء نظام المسح تمامًا ، بما في ذلك توليد التجزئة المحلي. قال إريك نوينشواندر ، رئيس الخصوصية في Apple ، لموقع TechCrunch في مقابلة: “إذا كان المستخدمون لا يستخدمون iCloud Photos ، فلن يتم تشغيل NeuralHash ولن ينشئ أي قسائم” .

استخدمت Apple المعالجة على الجهاز لتعزيز بيانات اعتماد الخصوصية الخاصة بها في الماضي. يمكن لنظام iOS إجراء الكثير من تحليلات الذكاء الاصطناعي دون إرسال أي من بياناتك إلى الخوادم السحابية ، على سبيل المثال ، مما يعني فرصًا أقل لطرف ثالث في الحصول عليها.

لكن التمييز المحلي / البعيد هنا مثير للجدل بشكل كبير ، وبعد رد فعل عنيف ، أمضت شركة Apple الأيام العديدة الماضية في رسم خطوط دقيقة للغاية بين الاثنين.

لماذا ينزعج بعض الناس من هذه التغييرات؟

قبل أن ندخل في الانتقادات ، يجدر بنا أن نقول: لقد حظيت شركة Apple بالثناء على هذه التحديثات من بعض خبراء الخصوصية والأمان ، بما في ذلك خبراء التشفير وعلماء الكمبيوتر البارزين ميهير بيلاري وديفيد فورسيث ودان بونيه. قال فورسيث في تصريح قدمته شركة آبل: “من المرجح أن يزيد هذا النظام بشكل كبير من احتمالية العثور على الأشخاص الذين يمتلكون أو يتصفحون [CSAM]”. “يجب أن يعاني المستخدمون غير الضارون من الحد الأدنى من فقدان الخصوصية أو عدم فقدانهم للخصوصية”.

لكن الخبراء ومجموعات المناصرة الأخرى عارضوا التغييرات. يقولون إن تحديثات iCloud و Messages لديها نفس المشكلة: إنهم ينشئون أنظمة مراقبة تعمل مباشرة من هاتفك أو جهازك اللوحي. يمكن أن يوفر ذلك مخططًا لكسر التشفير الآمن من طرف إلى طرف ، وحتى إذا كان استخدامه محدودًا في الوقت الحالي ، فقد يفتح الباب لمزيد من الغزوات المزعجة للخصوصية.

تحدد رسالة مفتوحة بتاريخ 6 أغسطس / آب الشكاوى بمزيد من التفصيل. إليك وصفه لما يحدث:

في حين أن استغلال الأطفال يمثل مشكلة خطيرة ، وعلى الرغم من أن الجهود المبذولة لمكافحتها تتم تقريبًا بحسن نية ، فإن اقتراح Apple يقدم بابًا خلفيًا يهدد بتقويض حماية الخصوصية الأساسية لجميع مستخدمي منتجات Apple.

تعمل تقنية Apple المقترحة من خلال المراقبة المستمرة للصور المحفوظة أو المشتركة على جهاز iPhone أو iPad أو Mac الخاص بالمستخدم. يكتشف أحد الأنظمة ما إذا تم اكتشاف عدد معين من الصور المرفوضة في تخزين iCloud ويقوم بتنبيه السلطات. يقوم آخر بإخطار والدي الطفل إذا تم استخدام iMessage لإرسال أو استقبال الصور التي تعتبرها خوارزمية التعلم الآلي تحتوي على عُري.

نظرًا لأن كلا الفحصين يتم إجراؤهما على جهاز المستخدم ، فمن المحتمل أن يتجاوزا أي تشفير من طرف إلى طرف يحمي خصوصية المستخدم.

عارضت شركة Apple التوصيفات أعلاه ، لا سيما مصطلح “backdoor” ووصف مراقبة الصور المحفوظة على جهاز المستخدم. ولكن كما سنوضح أدناه ، فإنه يطلب من المستخدمين أن يضعوا الكثير من الثقة في Apple ، بينما تواجه الشركة ضغوطًا حكومية في جميع أنحاء العالم.

ما هو التشفير من طرف إلى طرف ، مرة أخرى؟

للتبسيط على نطاق واسع ، يجعل التشفير من طرف إلى طرف (أو E2EE) البيانات غير قابلة للقراءة لأي شخص بخلاف المرسل والمستقبل ؛ بمعنى آخر ، لا تستطيع حتى الشركة التي تشغل التطبيق رؤيته. لا يزال من الممكن تشفير الأنظمة الأقل أمانًا ، ولكن قد تحتفظ الشركات بمفاتيح البيانات حتى تتمكن من فحص الملفات أو منح حق الوصول إلى تطبيق القانون. تستخدم iMessages من Apple E2EE ؛ صور iCloud ، مثل العديد من خدمات التخزين السحابية ، لا تفعل ذلك.

في حين أن E2EE يمكن أن يكون فعالًا بشكل لا يصدق ، فإنه لا يمنع بالضرورة الأشخاص من رؤية البيانات على الهاتف نفسه. هذا يترك الباب مفتوحًا لأنواع معينة من المراقبة ، بما في ذلك نظام تتهم شركة Apple الآن بإضافته: المسح من جانب العميل.

ما هو الفحص من جانب العميل؟

مؤسسة الحدود الإلكترونية لديها مخطط تفصيلي للمسح من جانب العميل. بشكل أساسي ، يتضمن تحليل الملفات أو الرسائل في التطبيق قبل إرسالها في شكل مشفر ، وغالبًا ما يتم التحقق من المحتوى المرفوض – وفي هذه العملية ، تجاوز حماية E2EE من خلال استهداف الجهاز نفسه. في مكالمة هاتفية مع The Verge ، قارنت Erica Portnoy ، كبيرة تقني موظفي EFF ، هذه الأنظمة بشخص ينظر من فوق كتفك بينما ترسل رسالة آمنة على هاتفك.

هل تقوم APPLE بإجراء فحص من جانب العميل؟

أبل تنفي ذلك بشدة. في مستند الأسئلة المتداولة ، يقول إن الرسائل لا تزال مشفرة من طرف إلى طرف ولا يتم إطلاق أي تفاصيل حول محتوى رسالة معينة لأي شخص ، بما في ذلك الآباء. وهي تعد “Apple لا تتمكن أبدًا من الوصول إلى الاتصالات كنتيجة لهذه الميزة في الرسائل”.

كما أنه يرفض التأطير الذي يقوم بمسح الصور ضوئيًا على جهازك بحثًا عن CSAM. تقول الأسئلة الشائعة: “حسب التصميم ، تنطبق هذه الميزة فقط على الصور التي يختار المستخدم تحميلها على iCloud”. “لا يعمل النظام مع المستخدمين الذين لديهم صور iCloud معطلة. لا تعمل هذه الميزة في مكتبة صور iPhone الخاصة بك على الجهاز “. أوضحت الشركة لاحقًا للصحفيين أن Apple يمكنها مسح صور iCloud Photos المتزامنة عبر خدمات الجهات الخارجية بالإضافة إلى تطبيقاتها الخاصة.

كما تقر Apple ، لا تحتوي iCloud Photos حتى على أي E2EE لكسرها ، لذلك يمكنها بسهولة إجراء عمليات الفحص هذه على خوادمها – تمامًا مثل الكثير من الشركات الأخرى. تجادل شركة Apple بأن نظامها أكثر أمانًا في الواقع. من غير المحتمل أن يكون لدى معظم المستخدمين CSAM على هواتفهم ، وتزعم شركة Apple أنه يمكن وضع علامة غير صحيحة على حوالي 1 من كل تريليون حساب. باستخدام نظام المسح المحلي هذا ، تقول Apple إنها لن تكشف عن أي معلومات حول صور أي شخص آخر ، وهذا لن يكون صحيحًا إذا قامت بمسح خوادمها.

هل حجج شركة آبل مقنعة؟

ليس لكثير من منتقديه. كما كتب Ben Thompson في Stratechery ، فإن المشكلة ليست ما إذا كانت Apple ترسل إشعارات إلى أولياء الأمور فقط أو تقصر عمليات البحث على فئات معينة من المحتوى. هو أن الشركة تبحث في البيانات قبل أن تترك هاتفك.

بدلاً من إضافة مسح CSAM إلى iCloud Photos في السحابة التي يمتلكونها ويقومون بتشغيلها ، تعرض Apple الهاتف الذي نملكه ونديره ، دون أن يكون لأي منا رأي في الأمر. نعم ، يمكنك إيقاف تشغيل iCloud Photos لتعطيل فحص Apple ، ولكن هذا قرار سياسي ؛ القدرة على الوصول إلى هاتف المستخدم موجودة الآن ، ولا يوجد شيء يمكن لمستخدم iPhone فعله للتخلص منه.

CSAM غير قانوني ومقيت. ولكن كما تشير الرسالة المفتوحة إلى Apple ، دفعت العديد من الدول إلى التنازل عن التشفير باسم مكافحة الإرهاب والمعلومات المضللة والمحتويات الأخرى المرفوضة. الآن وقد حددت Apple هذه السابقة ، فمن شبه المؤكد أنها ستواجه دعوات لتوسيعها. وإذا قامت Apple لاحقًا بطرح التشفير من طرف إلى طرف لـ iCloud – وهو أمر يُقال إنه يفكر في القيام به ، وإن لم يتم تنفيذه مطلقًا – فقد وضعت خارطة طريق محتملة للتغلب على حماية E2EE.

تقول Apple إنها سترفض أي مكالمات لإساءة استخدام أنظمتها. وهي تفتخر بالكثير من الضمانات: حقيقة أن الآباء لا يمكنهم تمكين التنبيهات للمراهقين الأكبر سنًا في الرسائل ، وأن قسائم الأمان الخاصة بـ iCloud مشفرة ، وأنه يضع حدًا لتنبيه الوسطاء ، وأن عمليات البحث التي تجريها تقتصر على الولايات المتحدة فقط ومحدودة تمامًا لقاعدة بيانات NCMEC.

تم تصميم قدرة اكتشاف CSAM من Apple فقط لاكتشاف صور CSAM المعروفة المخزنة في iCloud Photos والتي تم تحديدها من قبل الخبراء في NCMEC ومجموعات سلامة الأطفال الأخرى. لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات. سوف نستمر في رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه.

المشكلة هي أن Apple لديها القدرة على تعديل هذه الضمانات. يقول بورتنوي: “نصف المشكلة هو أن النظام سهل التغيير”. تمسكت شركة آبل بأسلحتها في بعض الاشتباكات مع الحكومات ؛ لقد تحدى بشكل مشهور طلب مكتب التحقيقات الفيدرالي للحصول على بيانات من iPhone مطلق النار الجماعي. ولكن تم قبولها لطلبات أخرى مثل تخزين بيانات iCloud الصينية محليًا ، حتى لو أصرت على أنها لم تعرض أمن المستخدم للخطر من خلال القيام بذلك.

كما تساءل أليكس ستاموس ، الأستاذ في مرصد الإنترنت في ستانفورد ، عن مدى نجاح Apple في العمل مع مجتمع خبراء التشفير الأكبر ، قائلاً إن الشركة رفضت المشاركة في سلسلة من المناقشات حول الأمان والخصوصية والتشفير. وكتب على تويتر: “بهذا الإعلان ، دخلوا للتو في مناقشة التوازن ودفعوا الجميع إلى أبعد الزوايا دون استشارة عامة أو نقاش”.

كيف تتراكم فوائد ميزات APPLE الجديدة مقابل المخاطر؟

كالعادة ، الأمر معقد – ويعتمد جزئيًا على ما إذا كنت ترى هذا التغيير كاستثناء محدود أو باب مفتوح.

لدى Apple أسباب مشروعة لتكثيف جهودها لحماية الطفل. في أواخر عام 2019 ، نشرت صحيفة نيويورك تايمز تقارير عن “وباء” في الاعتداء الجنسي على الأطفال عبر الإنترنت. لقد انتقدت شركات التكنولوجيا الأمريكية لفشلها في معالجة انتشار CSAM ، وفي مقال لاحق ، اختارت NCMEC شركة Apple لمعدلاتها المنخفضة في الإبلاغ مقارنة بأقرانها مثل Facebook ، وهو أمر نسبته الصحيفة جزئيًا إلى عدم قيام الشركة بمسح ملفات iCloud.

وفي الوقت نفسه ، قالت مستندات داخلية لشركة Apple أن iMessage يعاني من مشكلة مفترس جنسي. في الوثائق التي كشفت عنها محاكمة Epic v. Apple الأخيرة ، أدرج رئيس قسم في شركة Apple “الاستمالة المفترسة للأطفال” على أنها “تهديد نشط” للمنصة تفتقر إلى الموارد. غالبًا ما يتضمن الاستمالة إرسال صور جنسية صريحة للأطفال (أو مطالبة الأطفال بإرسالها) ، وهو بالضبط ما تحاول ميزة الرسائل الجديدة من Apple تعطيله.

في الوقت نفسه ، وصفت Apple نفسها الخصوصية بأنها “حق من حقوق الإنسان”. الهواتف هي أجهزة حميمة مليئة بالمعلومات الحساسة. مع الرسائل والتغييرات على iCloud، وقد أثبتت أبل طريقتان للبحث أو تحليل المحتوى مباشرة على الجهاز بدلا من بعد أن كنت قد أرسلت البيانات لطرف ثالث، حتى لو كان في تحليل البيانات التي كنت قد وافقت على إرسال، مثل الصور على iCloud.

أقرت شركة Apple بالاعتراضات على تحديثاتها. لكن حتى الآن ، لم تشر إلى خطط لتعديلها أو التخلي عنها. يوم الجمعة ، أقرت مذكرة داخلية بوجود “سوء تفاهم” لكنها أشادت بالتغييرات. “ما أعلناه اليوم هو نتاج هذا التعاون المذهل ، الذي يوفر أدوات لحماية الأطفال ، ولكنه يحافظ أيضًا على التزام Apple العميق بخصوصية المستخدم” ، كما جاء في الكتاب. “نعلم أن بعض الأشخاص لديهم سوء فهم ، وأكثر من القليل قلقون بشأن الآثار المترتبة ، لكننا سنواصل شرح الميزات وتفاصيلها حتى يفهم الناس ما قمنا ببنائه.”

المصدر
theverge

Medhat Kouta

مدحت ماجد كوته صاحب موقع وقناة CamKou واللي بقدم فيها محتوى منوع تقني ومراجعات وحلول لبعض المشاكل التقنية بالإضافة إلى لقائات وفلوجات وكواليس اعلانات مع بعض دروس وشروحات تخص مجال الميديا والمهتمين بيها وحجات تانيه كتير

اترك رد

يجب عليك تعطيل مانع الاعلانات AdBlock حتى يمكنك مشاهدة المقال

يرجى إغلاق مانع الإعلانات ثم أعد تحميل الصفحة