محققان امنیتی قابلیت ایمنی کودکان اپل را خطرناک، تهاجمی و بیاثر توصیف میکنند
مدتی است اپل به دلیل رونمایی از ابزارهای ایمنی کودک با انتقاد برخی افراد و نهادها مواجه شده است؛ بهطوریکه غول دنیای فناوری چندی پیش تأیید کرد که با توجه به بازخورد مشتریان، گروههای غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامههایش را برای اجرای ویژگیهای مذکور به تأخیر بیندازد. در جدیدترین اقدام، بیش از دهها متخصص برجسته امنیت سایبری از اپل به دلیل اتکا به فناوری خطرناک در طرح بحثبرانگیز تشخیص تصاویر سوءاستفاده جنسی از کودکان انتقاد کردند.
انتقاد یادشده در مطالعهی ۴۶ صفحهای محققان انجام شد که برنامههای اپل و اتحادیه اروپا برای نظارت بر گوشیهای هوشمند کاربران از منظر غیر قانونی را بررسی میکردند. محققان تلاشها را ناکارآمد و سیاست اپل در این قبال را اقدامی خطرناک توصیف کردند که احتمالاً منجر به نظارت دولتها خواهد شد.
مقالهی مرتبط:انتقاد واتساپ و برخی صاحبنظران از قابلیتهای امنیت کودک اپل
برای یادآوری، اپل ماه آگوست ویژگیهای جدید ایمنی کودکان را در سه حوزه شامل اسکن تصاویر مبتنی بر آیکلاد کاربران برای شناسایی مواد سوءاستفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آنها در هنگام دریافت یا ارسال عکسهای جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک میکند.
به گفته محققان، اسناد منتشرشده از سوی اتحادیه اروپا نشان میدهد که هیئت حاکمِ اتحادیه به دنبال برنامهای مشابه است که گوشیهای رمزگذاریشده را برای سوءاستفاده جنسی از کودکان و همچنین نشانههای جنایت سازمانیافته و تصاویر مرتبط با تروریسم اسکن میکند. محققان خاطرنشان میکنند که باید در مقابل تلاش برای جاسوسی و تأثیرگذاری بر شهروندان مطیع قانون، اولویت امنیت ملی باشد.
راس اندرسون، استاد مهندسی امنیت در دانشگاه کمبریج و یکی از اعضای این گروه، میگوید با این دست از اقدامات، قدرت نظارتی دولتها از خط قرمز عبور میکند. علاوه بر نگرانیهای مربوط به نظارت، یافتههای محققان نشان میدهد که این فناوری در شناسایی تصاویر سوءاستفاده جنسی از کودکان مؤثر نخواهد بود. به گفته آنها، چند روز پس از اعلام اپل، مردم به راههایی برای جلوگیری از تشخیص با ویرایش جزئی تصاویر روی آوردهاند.
سوزان لاندائو، استاد امنیت سایبری و سیاست در دانشگاه تافتز، میگوید: «این [ابزارها] امکان اسکن یک دستگاه خصوصی شخصی را بدون هیچ دلیل احتمالی برای انجام هرگونه کار نامشروع فراهم میکند و این فوقالعاده خطرناک است. این برای تجارت، امنیت ملی، امنیت عمومی و حریم خصوصی خطرناک است.» محققان امنیت سایبری میگویند مطالعه خود را قبل از اعلام اپل آغاز کرده بودند و اکنون یافتههایشان را منتشر میکنند تا اتحادیه اروپا را از خطرات برنامههای مشابه خود مطلع کنند.
همانطور که در ابتدا گفته شد، اپل با انتقاد قابل توجهی از سوی حامیان حریم خصوصی، محققان امنیتی، متخصصان رمزنگاری، دانشگاهیان، سیاستمداران و حتی کارکنان داخل شرکت به دلیل تصمیم خود برای استفاده از این فناوری در بهروزرسانی آینده iOS 15 و iPadOS 15 روبهرو شده است. این شرکت در ابتدا سعی کرد با انتشار اطلاعات دقیق، به اشتراک گذاشتن سؤالات متداول، اسناد مختلف جدید، مصاحبه با مدیران شرکت و موارد دیگر، سوءتفاهمها را از بین ببرد و به کاربران اطمینان بدهد که هیچ تخطی در این زمینه صورت نخواهد گرفت.
اما هنگامی که مشخص شد این اقدامات بیتأثیر است، اپل بازخورد منفی را پذیرفت و در ماه سپتامبر تأخیر در عرضه ویژگیها را اعلام کرد تا به شرکت فرصت بدهد سیستم CSAM را بهبود ببخشد؛ اما مشخص نیست که بهبودها چه مواردی را شامل میشوند و چگونه نگرانیها را برطرف میکنند. اپل همچنین اعلام کرده است که از درخواست دولتهای اقتدارگرا برای گسترش سیستم تشخیص تصویر فراتر از تصاویر CSAM با قاطعیت خودداری میکند.
برای مطالعهی تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.
در جدیدترین انتقادات به ابزارهای ایمنی کودک اپل، جمعی از محققان امنیتی سیاست اپل در این قبال را خطرناک و بیاثر توصیف کردند.