متا اعلام کرد که آییننامه رفتاری اتحادیه اروپا برای قانون هوش مصنوعی را امضا نمیکند؛ این تصمیم تنها چند هفته پیش از اجرای مقررات مربوط به ارائهدهندگان مدلهای هوش مصنوعی با کاربرد عمومی در اتحادیه اروپا گرفته شده است.
جوئل کاپلان (مدیر امور جهانی متا) در یادداشتی در لینکدین نوشت: «اروپا در مسیر اشتباهی در حوزه هوش مصنوعی قرار گرفته است. ما آییننامه رفتاری کمیسیون اروپا برای مدلهای هوش مصنوعی با کاربرد عمومی (GPAI) را به دقت بررسی کردیم و متا تصمیم به امضای آن ندارد. این آییننامه ابهامات حقوقی متعددی برای توسعهدهندگان مدلها به همراه دارد و مقرراتی را وضع میکند که فراتر از محدوده قانون هوش مصنوعی اتحادیه اروپا است.»
این آییننامه رفتاری (که بهتازگی منتشر شده و اجرای آن داوطلبانه است) با هدف کمک به شرکتها در پیادهسازی فرآیندها و سیستمهایی برای انطباق با مقررات اتحادیه اروپا در حوزه هوش مصنوعی تدوین شده است. طبق این آییننامه، شرکتها باید مستندات مربوط به ابزارها و خدمات هوش مصنوعی خود را تهیه و بهروزرسانی کنند؛ استفاده از محتوای دارای حق نشر در آموزش مدلهای هوش مصنوعی ممنوع است؛ و توسعهدهندگان باید به درخواست صاحبان محتوا برای حذف آثارشان از مجموعه دادهها احترام بگذارند.
کاپلان، اجرای این قانون را نوعی «زیادهروی» خوانده و تأکید کرده است که چنین مقرراتی توسعه و بهکارگیری مدلهای پیشرفته هوش مصنوعی در اروپا را محدود خواهد کرد و موجب تضعیف شرکتهای اروپایی میشود که به دنبال ایجاد کسبوکار بر مبنای این فناوری هستند.
قانون هوش مصنوعی اتحادیه اروپا بر مبنای رویکرد مبتنی بر ریسک تدوین شده است. برخی کاربردها با عنوان «ریسک غیرقابل قبول» بهطور کامل ممنوع میشوند (از جمله دستکاری شناختی و رفتاری یا امتیازدهی اجتماعی). همچنین دستهای از کاربردهای «با ریسک بالا» تعریف شدهاند (مانند استفاده در حوزههای بیومتریک و شناسایی چهره؛ آموزش و اشتغال). طبق این قانون، توسعهدهندگان باید سامانههای هوش مصنوعی خود را ثبت کرده و الزامات مدیریت ریسک و کیفیت را رعایت کنند.
شرکتهای فناوری بزرگ جهان (از جمله آلفابت؛ متا؛ مایکروسافت و میسترال AI) با این مقررات مخالفت کردهاند و حتی از کمیسیون اروپا خواستهاند اجرای آن را به تعویق بیندازد. با این حال، کمیسیون بر اجرای برنامهریزیشده تأکید کرده و اعلام کرده است که جدول زمانی را تغییر نخواهد داد.
همچنین اتحادیه اروپا روز جمعه دستورالعملهایی را برای ارائهدهندگان مدلهای هوش مصنوعی منتشر کرد تا پیش از اجرایی شدن مقررات در تاریخ ۲ اوت، آمادگی لازم را داشته باشند. این مقررات شامل ارائهدهندگان مدلهای هوش مصنوعی با کاربرد عمومی و دارای ریسک سیستماتیک میشود (از جمله OpenAI؛ Anthropic؛ گوگل و متا). شرکتهایی که پیش از ۲ اوت چنین مدلهایی را وارد بازار کردهاند، موظف خواهند بود تا تاریخ ۲ اوت ۲۰۲۷ با این مقررات بهطور کامل انطباق پیدا کنند.