اپل اجرای قابلیتهای ایمنی کودک را به تأخیر میاندازد
اپل ماه گذشته ویژگیهای جدید ایمنی کودکان را در سه حوزه شامل اسکن تصاویر مبتنی بر آیکلاد کاربران برای شناسایی مواد سوءاستفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آنها در هنگام دریافت یا ارسال عکسهای جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک میکند.
اپل میگوید تمامی ویژگیهای جدید منطبق با استانداردهای حریم خصوصی این شرکت بهینه شدهاند و اطمینان حاصل میکنند که میتواند اطلاعات مربوط به فعالیت مجرمانه را بدون تهدید اطلاعات خصوصی کاربران مطیع قانون به مقامات مربوطه ارائه بدهد. ویژگیهای امنیتی مذکور همسو با انتشار بهروزرسانی سیستمعاملهای اپل در پاییز سال جاری میلادی به نمایش درخواهند آمد. شناسایی CSAM در حسابهای آیکلاد فوتوز مهمترین بخشی محسوب میشود که تمرکز اصلی اپل به ارائه آن معطوف شده است؛ اما اخیراً این ویژگیها با انتقاد و نگرانی برخی از صاحبنظران درباره نقضهای احتمالی حریم خصوصی مواجه شده است.
مقالهی مرتبط:انتقاد واتساپ و برخی صاحبنظران از قابلیتهای امنیت کودک اپل
روز گذشته اپل تأیید کرد که بازخورد مشتریان، گروههای غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامههایش را برای اجرای ویژگیهای مذکور به تأخیر بیندازد. اپل در بیانیهای میگوید:
ماه گذشته بهمنظور کمک به محافظت از کودکان و محدود کردن انتشار موارد سوءاستفاده جنسی در برابر متجاوزانی که از ابزارهای ارتباطی برای بهکارگیری و سوءاستفاده از آنها استفاده میکنند، برنامهها و ویژگیهایی معرفی کردیم. بر اساس بازخورد مشتریان، گروههای حمایتی، محققان و دیگران، تصمیم گرفتهایم قبل از انتشار این ویژگیهای بسیار مهم ایمنی کودک، در ماههای آینده زمان بیشتری برای جمعآوری بازخوردها و پیشرفتها اختصاص بدهیم.
بهطور کلی، ابزارهای ایمنی کودک اپل با بازخوردهای منفی مواجه شدهاند و بسیاری از سازمانها و شرکتهایی نظیر واتساپ، فیسبوک و اپیک گیمز از آن انتقاد کردهاند. نگرانیها از این است که دولتهای سرکوبگر آزادی بیان از این سیستم برای منافع خود استفاده کنند و دستگاههای تمامی افراد را با استفاده از پوشش شرکتهای خصوصی برای دور زدن حمایتهای قانون اساسی به کار بگیرند. البته اپل نخستین شرکتی نیست که از این ابزار و مکانیسم برای اسکن تصاویر سوء استفادهی جنسی کودکان استفاده میکند و از قرار معلوم این امری معمول در سایر شرکتها نظیر گوگل و توییتر است.
اپل بارها این انتقادات را نادرست عنوان کرده است و اریک نوینشواندر، رئیس بخش حریم خصوصی این شرکت، اجرای برخی مکانیزمهای این سیستم را شفافسازی و در مصاحبهی اخیرش خاطرنشان کرده است که سیستم جدید برای جلوگیری از تهاجم و سوءاستفاده دولتها طراحی شده. اپل همچنین اسناد پشتیبانی را منتشر کرده که در آن، سیستم با جزئیات بیشتر، کارکرد آن و نحوه محافظت از آن در برابر تداخل توضیح داده شده است. کریگ فدریگی، مدیر ارشد نرمافزار اپل، بهتازگی اظهار داشته است که این شرکت در انتشار همزمان سه ویژگی محافظتی کودک اشتباه کرده؛ زیرا منجر به ارزیابی نادرست و سوء تفاهم گسترده در رابطه با کارکرد این سیستم شده است.
مجموعه ویژگیهای ایمنی کودک در ابتدا قرار بود که با بهروزرسانی سیستمعاملهای جدید اپل در ایالات متحده آغاز به کار کند؛ جایی که برخی از قوانین و مصونیتهای قضایی عملا هرگونه سوءاستفاده از کاربران را منع میکند و در صورت تخطی، میتواند شرکتها را با چالشهای بسیار بزرگی مواجه کند؛ اما اکنون مشخص نیست اپل چه زمانی قصد دارد ویژگیهای مهم و جنجالی یادشده را ارائه بدهد.
برای مطالعهی تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.
طبق اعلام اپل، ویژگیهای ایمنی کودک که ماه گذشته اعلام شده بود، به دلیل گرفتن بازخوردهای منفی به تعویق میافتد.