جریمه ایتالیا برای اوپن ای آی

جریمه ۱۵ میلیون یورویی ایتالیا برای OpenAI به دلیل نقض قوانین GDPR

مرجع حفاظت از داده‌های ایتالیا، گارانته، OpenAI را به دلیل نقض مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) مرتبط با نحوه پردازش داده‌های شخصی توسط ChatGPT، به پرداخت جریمه‌ای ۱۵ میلیون یورویی (۱۵/۶۶ میلیون دلاری) محکوم کرد.

این جریمه پس از تحقیقاتی در سال ۲۰۲۳ اعمال شد که نشان داد ChatGPT از داده‌های کاربران برای آموزش مدل‌های خود بدون مبنای قانونی مناسب استفاده کرده است و این امر مقررات GDPR را نقض کرده است. گارانته همچنین عدم اطلاع‌رسانی OpenAI درباره نقض امنیتی در مارس ۲۰۲۳ و شفاف نبودن درباره نحوه پردازش اطلاعات کاربران را مورد انتقاد قرار داد.

مسائل و مشکلات OpenAI از نظر ایتالیا

  • نبود شفافیت: OpenAI وظیفه خود را در اطلاع‌رسانی به کاربران درباره نحوه جمع‌آوری و پردازش داده‌های آن‌ها انجام نداده است.
  • عدم وجود مکانیزم تأیید سن: ChatGPT فاقد سازوکاری برای اطمینان از عدم دسترسی کاربران زیر ۱۳ سال به محتوای نامناسب است.
  • مبنای قانونی ناکافی: این شرکت بدون کسب رضایت یا توجیه قانونی مناسب طبق GDPR، از داده‌های شخصی برای آموزش مدل‌های خود استفاده کرده است.

الزامات اضافی و کمپین آگاهی عمومی

علاوه بر جریمه، OpenAI ملزم است یک کمپین آگاهی عمومی شش‌ماهه از طریق رادیو، تلویزیون، روزنامه‌ها و پلتفرم‌های آنلاین راه‌اندازی کند. این کمپین با هدف آموزش عمومی درباره موارد زیر طراحی شده است:

۱. انواع داده‌هایی که ChatGPT جمع‌آوری می‌کند، شامل اطلاعات کاربران و غیرکاربران. ۲. نحوه استفاده از این داده‌ها برای آموزش مدل‌های هوش مصنوعی. ۳. حقوق کاربران برای اعتراض، اصلاح یا حذف داده‌های خود طبق GDPR.

گارانته تأکید کرد که این کمپین باید کاربران را قادر سازد تا حقوق خود را اعمال کنند و نحوه مخالفت با استفاده از داده‌هایشان در آموزش هوش مصنوعی مولد را درک کنند.

واکنش OpenAI

OpenAI این جریمه را نامتناسب خواند و اعلام کرد قصد دارد درخواست تجدیدنظر کند. این شرکت اظهار داشت که این جریمه تقریباً ۲۰ برابر درآمدی است که در دوره مربوطه در ایتالیا کسب کرده است. OpenAI بر تعهد خود به ارائه خدمات هوش مصنوعی مفید که به حریم خصوصی کاربران احترام می‌گذارد، تأکید کرد.

ملاحظات گسترده‌تر GDPR

این حکم با نظر هیئت حفاظت از داده‌های اروپا (EDPB) همسو است که بیان می‌کند مدل‌های هوش مصنوعی که بر اساس داده‌های شخصی به‌طور غیرقانونی پردازش شده آموزش دیده‌اند، اگر داده‌ها پیش از بهره‌برداری ناشناس شوند، ممکن است از نقض GDPR اجتناب کنند. با این حال، GDPR برای هر پردازش داده شخصی که در طول عملیات مدل انجام شود، اعمال خواهد شد.

EDPB همچنین دستورالعمل‌های جدیدی درباره انتقال داده‌ها به خارج از اتحادیه اروپا صادر کرده است که بر تطابق با مقررات GDPR تأکید دارد. این دستورالعمل‌ها که تا ۲۷ ژانویه ۲۰۲۵ برای مشاوره عمومی باز هستند، تأکید دارند که انتقال داده‌ها در پاسخ به درخواست مراجع کشورهای ثالث باید با استانداردهای GDPR هماهنگ باشد.

پیشینه تاریخی اختلاف ایتالیا و OpenAI

ایتالیا اولین کشوری بود که در مارس ۲۰۲۳ به‌طور موقت ChatGPT را به دلیل نگرانی‌های حریم خصوصی ممنوع کرد. این ممنوعیت در آوریل ۲۰۲۳ پس از آنکه OpenAI خواسته‌های گارانته را برآورده کرد، لغو شد.

این پرونده افزایش نظارت بر فناوری‌های هوش مصنوعی مولد در زمینه حفاظت از داده‌ها و رعایت مقررات در اروپا را برجسته می‌کند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *