اپل اجرای قابلیت‌های ایمنی کودک را به تأخیر می‌اندازد

اپل ماه گذشته ویژگی‌های جدید ایمنی کودکان را در سه حوزه شامل اسکن تصاویر مبتنی بر آی‌کلاد کاربران برای شناسایی مواد سوء‌استفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آن‌ها در هنگام دریافت یا ارسال عکس‌های جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال در برابر مجرمان، متجاوزان و محدود کردن انتشار مواد سوءاستفاده جنسی از کودکان کمک می‌کند.

اپل می‌گوید تمامی ویژگی‌های جدید منطبق با استانداردهای حریم خصوصی این شرکت بهینه شده‌اند و اطمینان حاصل می‌کنند که می‌تواند اطلاعات مربوط به فعالیت مجرمانه را بدون تهدید اطلاعات خصوصی کاربران مطیع قانون به مقامات مربوطه ارائه بدهد. ویژگی‌های امنیتی مذکور هم‌سو با انتشار به‌روزرسانی سیستم‌عامل‌های اپل در پاییز سال جاری میلادی به نمایش درخواهند آمد. شناسایی CSAM در حساب‌های آی‌کلاد فوتوز مهم‌ترین بخشی محسوب می‌شود که تمرکز اصلی اپل به ارائه آن معطوف شده است؛ اما اخیراً این ویژگی‌ها با انتقاد و نگرانی برخی از صاحب‌نظران درباره نقض‌های احتمالی حریم خصوصی مواجه شده است.

مقاله‌ی مرتبط:انتقاد واتساپ و برخی صاحب‌نظران از قابلیت‌های امنیت کودک اپل

روز گذشته اپل تأیید کرد که بازخورد مشتریان، گروه‌های غیر انتفاعی و حمایتی، محققان و دیگران در مورد این ابزارها، سبب شده است که برنامه‌هایش را برای اجرای ویژگی‌های مذکور به تأخیر بیندازد. اپل در بیانیه‌ای می‌‌گوید:

ماه گذشته به‌منظور کمک به محافظت از کودکان و محدود کردن انتشار موارد سوء‌استفاده جنسی در برابر متجاوزانی که از ابزارهای ارتباطی برای به‌کارگیری و سوء‌استفاده از آن‌ها استفاده می‌کنند، برنامه‌ها و ویژگی‌هایی معرفی کردیم. بر اساس بازخورد مشتریان، گروه‌های حمایتی، محققان و دیگران، تصمیم گرفته‌ایم قبل از انتشار این ویژگی‌های بسیار مهم ایمنی کودک، در ماه‌های آینده زمان بیشتری برای جمع‌آوری بازخوردها و پیشرفت‌ها اختصاص بدهیم.

به‌طور کلی، ابزارهای ایمنی کودک اپل با بازخوردهای منفی مواجه شده‌اند و بسیاری از سازمان‌ها و شرکت‌هایی نظیر واتساپ، فیسبوک و اپیک گیمز از آن انتقاد کرده‌اند. نگرانی‌ها از این است که دولت‌های سرکوبگر آزادی‌ بیان از این سیستم برای منافع خود استفاده کنند و دستگاه‌های تمامی افراد را با استفاده از پوشش شرکت‌های خصوصی برای دور زدن حمایت‌های قانون اساسی به‌ کار بگیرند. البته اپل نخستین شرکتی نیست که از این ابزار و مکانیسم برای اسکن تصاویر سوء استفاده‌ی جنسی کودکان استفاده می‌کند و از قرار معلوم این امری معمول در سایر شرکت‌ها نظیر گوگل و توییتر است.

اپل بارها این انتقادات را نادرست عنوان کرده است و اریک نوینشواندر، رئیس بخش حریم خصوصی این شرکت، اجرای برخی مکانیزم‌های این سیستم را شفاف‌سازی و در مصاحبه‌ی اخیرش خاطرنشان کرده است که سیستم جدید برای جلوگیری از تهاجم و سوء‌استفاده دولت‌ها طراحی شده. اپل همچنین اسناد پشتیبانی را منتشر کرده که در آن، سیستم با جزئیات بیشتر، کارکرد آن و نحوه محافظت از آن در برابر تداخل توضیح داده شده است. کریگ فدریگی، مدیر ارشد نرم‌افزار اپل، به‌تازگی اظهار داشته است که این شرکت در انتشار هم‌زمان سه ویژگی محافظتی کودک اشتباه کرده؛ زیرا منجر به ارزیابی نادرست و سوء تفاهم گسترده در رابطه با کارکرد این سیستم شده است.

مجموعه ویژگی‌های ایمنی کودک در ابتدا قرار بود که با به‌روزرسانی سیستم‌عامل‌های جدید اپل در ایالات متحده آغاز به کار کند؛ جایی که برخی از قوانین و مصونیت‌های قضایی عملا هرگونه سوءاستفاده از کاربران را منع می‌کند و در صورت تخطی، می‌تواند شرکت‌ها را با چالش‌های بسیار بزرگی مواجه کند؛ اما اکنون مشخص نیست اپل چه زمانی قصد دارد ویژگی‌های مهم و جنجالی یادشده را ارائه بدهد.

برای مطالعه‌ی تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.

طبق اعلام اپل، ویژگی‌های ایمنی کودک که ماه گذشته اعلام شده بود، به دلیل گرفتن بازخوردهای منفی به تعویق می‌افتد.