اختلاف متا و اتحادیه اروپا بر سر هوش مصنوعی

متا از امضای آیین‌نامه رفتاری هوش مصنوعی اتحادیه اروپا خودداری کرد

متا اعلام کرد که آیین‌نامه رفتاری اتحادیه اروپا برای قانون هوش مصنوعی را امضا نمی‌کند؛ این تصمیم تنها چند هفته پیش از اجرای مقررات مربوط به ارائه‌دهندگان مدل‌های هوش مصنوعی با کاربرد عمومی در اتحادیه اروپا گرفته شده است.

جوئل کاپلان (مدیر امور جهانی متا) در یادداشتی در لینکدین نوشت: «اروپا در مسیر اشتباهی در حوزه هوش مصنوعی قرار گرفته است. ما آیین‌نامه رفتاری کمیسیون اروپا برای مدل‌های هوش مصنوعی با کاربرد عمومی (GPAI) را به دقت بررسی کردیم و متا تصمیم به امضای آن ندارد. این آیین‌نامه ابهامات حقوقی متعددی برای توسعه‌دهندگان مدل‌ها به همراه دارد و مقرراتی را وضع می‌کند که فراتر از محدوده قانون هوش مصنوعی اتحادیه اروپا است.»

این آیین‌نامه رفتاری (که به‌تازگی منتشر شده و اجرای آن داوطلبانه است) با هدف کمک به شرکت‌ها در پیاده‌سازی فرآیندها و سیستم‌هایی برای انطباق با مقررات اتحادیه اروپا در حوزه هوش مصنوعی تدوین شده است. طبق این آیین‌نامه، شرکت‌ها باید مستندات مربوط به ابزارها و خدمات هوش مصنوعی خود را تهیه و به‌روزرسانی کنند؛ استفاده از محتوای دارای حق نشر در آموزش مدل‌های هوش مصنوعی ممنوع است؛ و توسعه‌دهندگان باید به درخواست صاحبان محتوا برای حذف آثارشان از مجموعه داده‌ها احترام بگذارند.

کاپلان، اجرای این قانون را نوعی «زیاده‌روی» خوانده و تأکید کرده است که چنین مقرراتی توسعه و به‌کارگیری مدل‌های پیشرفته هوش مصنوعی در اروپا را محدود خواهد کرد و موجب تضعیف شرکت‌های اروپایی می‌شود که به دنبال ایجاد کسب‌وکار بر مبنای این فناوری هستند.

قانون هوش مصنوعی اتحادیه اروپا بر مبنای رویکرد مبتنی بر ریسک تدوین شده است. برخی کاربردها با عنوان «ریسک غیرقابل قبول» به‌طور کامل ممنوع می‌شوند (از جمله دستکاری شناختی و رفتاری یا امتیازدهی اجتماعی). همچنین دسته‌ای از کاربردهای «با ریسک بالا» تعریف شده‌اند (مانند استفاده در حوزه‌های بیومتریک و شناسایی چهره؛ آموزش و اشتغال). طبق این قانون، توسعه‌دهندگان باید سامانه‌های هوش مصنوعی خود را ثبت کرده و الزامات مدیریت ریسک و کیفیت را رعایت کنند.

شرکت‌های فناوری بزرگ جهان (از جمله آلفابت؛ متا؛ مایکروسافت و میسترال AI) با این مقررات مخالفت کرده‌اند و حتی از کمیسیون اروپا خواسته‌اند اجرای آن را به تعویق بیندازد. با این حال، کمیسیون بر اجرای برنامه‌ریزی‌شده تأکید کرده و اعلام کرده است که جدول زمانی را تغییر نخواهد داد.

همچنین اتحادیه اروپا روز جمعه دستورالعمل‌هایی را برای ارائه‌دهندگان مدل‌های هوش مصنوعی منتشر کرد تا پیش از اجرایی شدن مقررات در تاریخ ۲ اوت، آمادگی لازم را داشته باشند. این مقررات شامل ارائه‌دهندگان مدل‌های هوش مصنوعی با کاربرد عمومی و دارای ریسک سیستماتیک می‌شود (از جمله OpenAI؛ Anthropic؛ گوگل و متا). شرکت‌هایی که پیش از ۲ اوت چنین مدل‌هایی را وارد بازار کرده‌اند، موظف خواهند بود تا تاریخ ۲ اوت ۲۰۲۷ با این مقررات به‌طور کامل انطباق پیدا کنند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *