توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی
بهدنبال مجموعه مذاکراتی که هفته گذشته در اتحادیه اروپا صورت گرفت، قانونگذاران نهایتاً بر سر طرح پیشنهادی “قانون هوش مصنوعی” (AI Act) با یکدیگر به توافق رسیدند.
این طرح ظاهراً اولین قانون دنیا خواهد بود که بهشکلی جامع بر هوش مصنوعی نظارت خواهد کرد و میتواند مبنایی برای قوانین مشابه در دیگر نقاط دنیا باشد.
اتحادیه اروپا بر سر تدوین مقررات قانونی در هدایت و استفاده از هوش مصنوعی به یک توافق تاریخی رسیده است.
حال، اجرای قانون جدید مستلزم تصویب از سوی پارلمان اروپا و تائید کشورهای عضو اتحادیه اروپا است.
این توافق موقت روز جمعه، هشتم دسامبر، درخصوص استفاده از هوش مصنوعی در اقداماتی ازجمله تشخیص چهره و نحوه تنظیم سیستمهای هوش مصنوعی مانند چت جیپیتی دست یافتند.
به نقل از رویترز، گاردین و واشنگتن پست با این توافق مهم، اتحادیه اروپا به اولین قدرت بزرگ جهانی تبدیل میشود که قوانین حاکم بر هوش مصنوعی را وضع میکند.
با این توافق سیاسی، اتحادیه اروپا اولین بلوک بزرگ جهانی است که قوانین مربوط به هوش مصنوعی را وضع میکند.
توافق بین کشورهای اتحادیه اروپا و اعضای پارلمان اروپا پس از نزدیک به ۱۵ ساعت مذاکره که پس از یک مناظره تقریبا ۲۴ ساعته در روز پنشنبه انجام شد.
کمیسیون اروپا این لایحه را از اپریل سال ۲۰۲۱ در مورد هوش مصنوعی و خطر های احتمالی آن به تعویق انداخت.
بر اساس مقررات تازه اروپا، هر اپلیکشن و سافت ویر که با هوش مصنوعی کار می کند، پیش از آنکه به بازار عرضه می شود، باید با دقت ارزیابی شود.
براساس بیانیه منتشرشده، اگر تخلفی در این میان صورت می گیرد، مشتریان می توانند تخلف را به کمیسیون اروپا گزارش دهند. ضمنا، اگر تخلف ثابت شود، شرکت یا افرادی که از مقررات اتحادیه اروپا سرپیچی کرده اند، از ۷.۵ میلیون تا ۳۵ میلیون یورو جریمه شده می توانند.
تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در بروکسل پس از مذاکرات ۳۶ ساعته بین مذاکرهکنندگان کشورهای عضو اتحادیه اروپا و پارلمان اروپا طی بیانیه گفت: «اروپا اولین قارهای خواهد بود که قوانین واضحی را برای استفاده از هوش مصنوعی تعیین میکند. این یک توافق تاریخی است.»
وی در ادامه گفت: ساندار پیچای مدیر عامل گوگل و من توافق کردیم که نمیتوانیم منتظر بمانیم تا مقررات هوش مصنوعی واقعاً قابل اجرا شود و با همه توسعهدهندگان هوش مصنوعی همکاری کنیم تا پیش از موعد قانونی، یک پیمان هوش مصنوعی به صورت داوطلبانه ایجاد کنیم.
به گفته برتون، پارلمان اروپا ممنوعیت استفاده از فناوریهای بیومتریک از جمله تشخیص چهره را با سه استثنا تضمین کرده است: به طوری که پولیس تنها در صورت تهدید غیرمنتظره حمله تروریستی، نیاز به جستوجو برای قربانیان و تعقیب جرایم جدی میتواند از این فناوری استفاده کند.
دراگوش تودوراچه، قانونگذار رومانیایی که مذاکره قانون هوش مصنوعی را رهبری میکند، به واشنگتن پست گفت: این قانون یک استاندارد، یک مدل برای بسیاری از حوزههای قضایی دیگر را نشان میدهد. این بدان معناست که وقتی آن را تهیه میکنیم، باید مراقبت بیشتری داشته باشیم، زیرا برای بسیاری دیگر تأثیرگذار خواهد بود.
این مقررات پیشنهادی، راههایی را تعیین میکنند که در آن مدلهای یادگیری ماشینی آینده میتوانند در بلوک تجاری توسعه و توزیع شوند و بر استفاده از آنها در برنامههای مختلف از آموزش گرفته تا اشتغال و مراقبتهای بهداشتی تأثیر بگذارد.
کتر برندی نونک مدیر آزمایشگاه سیاست CITRIS در دانشگاه برکلی میگوید: کمیسیون اروپا بار دیگر به شیوهای جسورانه برای رسیدگی به فناوریهای نوظهور قدم برداشته است، درست مانند کاری که با حفظ حریم خصوصی دادهها از طریق GDPR انجام داده است.
وی افزود: این مقررات پیشنهادی بسیار جالب است، زیرا مشابه با آنچه در چارچوب نظارتی پیشنهادی هوش مصنوعی کانادا پیشنهاد شده است، از یک رویکرد مبتنی بر خطر به موضوع رسیدگی میکند.
کمیسیون اتحادیه اروپا با ریاست اورزولا فون در لاین برای اولین بار در ماه آوریل سال ۲۰۲۱ میلادی یک چارچوب قانونی برای استفاده از هوش مصنوعی را پیشنهاد کرد که قبلاً مذاکرات جاری بر سر قوانین پیشنهادی در هفتههای اخیر توسط فرانسه، آلمان و ایتالیا مختل شده بود.
بحثها بر سر قوانینی بود که چگونه کشورهای عضو اتحادیه اروپا میتوانند مدلهای بنیادی، هوش مصنوعی تعمیمیافتهای را توسعه دهند که میتوان از آنها برنامههای تخصصیتر را تنظیم کرد.
جزئیات قوانین اتحادیه اروپا
این توافقنامه، مدلهای بنیادی هوش مصنوعی مانند چت جیپیتی و سیستمهای هوش مصنوعی عمومی (GPAI) را ملزم میکند تا قبل از عرضه به بازار، از «تعهدات شفافیت» پیروی کنند.
اینها شامل تهیه اسناد فنی، مطابقت با قانون حق چاپ اتحادیه اروپا و انتشار خلاصههای دقیق درباره محتوای مورد استفاده برای آموزش است.
مدلهای بنیادی هوش مصنوعی با تاثیر بالا با ریسک سیستمی باید ارزیابی و کاهش خطرات سیستمی، انجام آزمایشهای متخاصم، گزارش به کمیسیون اروپا درباره حوادث جدی، اطمینان از امنیت سایبری و گزارش درباره بهرهوری انرژی خود را انجام دهند.
سیستمهای هوش مصنوعی عمومی با ریسک سیستماتیک ممکن است برای انطباق با مقررات جدید به کدهای عملی متکی باشند.
دولتها فقط میتوانند از نظارت بیومتریک در فضاهای عمومی در موارد مواجهه قربانیان جرایم خاص، پیشگیری از تهدیدهای واقعی، فعلی یا قابل پیشبینی مانند حملات تروریستی و جستوجو برای افراد مظنون به جدیترین جنایات استفاده کنند.
این توافق، دستکاری شناختی رفتاری، حذف بدون هدف تصاویر صورت از اینترنت یا فیلمهای دوربینهای مداربسته، امتیازدهی اجتماعی و سیستمهای طبقهبندی بیومتریک برای استنتاج عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد را ممنوع میکند.
مصرفکنندگان حق دارند شکایات خود را مطرح و توضیحات معناداری دریافت کنند؛ در حالی که جریمه تخلفات شرکتهای توسعهدهنده هوش مصنوعی از ۷.۵ میلیون یورو (۸.۱ میلیون دلار) یا ۱.۵ درصد گردش مالی تا ۳۵ میلیون یورو یا هفت درصد از گردش مالی جهانی این شرکتها متغیر است.
انتظار میرود این قانون در اوایل سال آینده پس از تصویب رسمی آن از سوی طرفین لازمالاجرا و ۲ سال پس از آن اعمال شود.
دولتها در سرتاسر جهان به دنبال ایجاد تعادل میان مزایای این فناوری هستند که میتواند در مکالمات انسانمانند شرکت کند، به سوالات پاسخ دهد و کدهای رایانهای بنویسد.
قوانین هوش مصنوعی اروپا در حالی است که شرکتهایی مانند اوپن ایآی که مایکروسافت در آن سرمایهگذار است، همچنان به کشف کاربردهای جدید فناوری خود ادامه میدهند که باعث تحسین و نگرانیها میشود.
مالک شرکت گوگل آلفابت روز پنجشنبه یک مدل هوش مصنوعی جدید به نام Gemini را برای رقابت با اوپن ایآی راهاندازی کرد.
چرا اتحادیه اروپا مقررات پیشنهادی هوش مصنوعی را تدوین کرده است؟
برای درک فوریت این اقدام، لازم است در مورد انگیزه پشت ارائه مقررات هوش مصنوعی اتحادیه اروپا اطلاعاتی داشته باشیم. دو دلیل اصلی برای ارائه این مقررات وجود دارد که شامل موارد زیر است.
- اطمینان از ایمنی و احترام به حقوق اساسی و ارزشهای اتحادیه اروپا.
قانون اتحادیه اروپا مبتنی بر ارزشهای اساسی اتحادیه شامل احترام به کرامت انسانی، آزادی و دموکراسی است. اتحادیه اروپا برای حقوق اساسی شامل حق عدم تبعیض، برابری بین زنان و مردان، حفاظت از دادهها، حریم خصوصی و حقوق کودک اهمیت زیادی قائل است.
فناوری هوش مصنوعی مزایای متعددی ارائه دارد. ولی سیستمهای هوش مصنوعی میتوانند به شدت با ارزشها و حقوق اتحادیه در تضاد باشند.
بنابراین ابزارهای قدرتمندی برای انجام فعالیتهای زیانآور محسوب میشوند. اطمینان از توسعه هوش مصنوعی با احترام به حقوق مردم و جلب اعتماد آنها، فضای اروپا را برای ورود به عصر دیجیتال مناسب میسازد.
- جلوگیری از تکه شدن بازار در داخل اتحادیه اروپا
خطرات سیستمهای هوش مصنوعی در حال آشکار شدن است. بنابراین برخی از کشورهای عضو در حال بررسی و وضع مقررات پیشنهادی هوش مصنوعی در سطح ملی هستند.
از طرفی محصولات و خدمات به احتمال زیاد از مرزهای کشورها عبور میکنند. پس وجود قوانین ملی متفاوت در داخل اتحادیه اروپا بازار آن را تکه تکه میکند. به علاوه حفاظت از حقوق اساسی و ارزشهای اتحادیه را در کشورهای مختلف عضو به خطر میاندازد.
الزامات مقررات هوش مصنوعی اتحادیه اروپا برای اپلیکیشنها؛
این مقررات به شدت بر ارزیابی داخلی از طریق گزارشگیری متکی است. فهرست الزامات اپلیکیشنها در مقررات پیشنهادی هوش مصنوعی پرخطر طولانی و اغلب گیچ کننده است و تشخیص صحیح آن به دقت زیادی نیاز دارد.
ارائه دهندگان سیستمهای پرخطر حداقل باید کارهای زیر را انجام دهند:
- ایجاد یک سیستم مدیریت ریسک.
این سیستم باید به صورت منظم در طول چرخه عمر یک سیستم هوش مصنوعی پرخطر به روزرسانی شود. ارائه دهندگان باید تمام خطرات شناخته شده و قابل پیشبینی احتمالی در زمان استفاده از سیستم هوش مصنوعی پرخطر را شناسایی و تحلیل کنند. به خصوص اگر بر کودکان تأثیر بگذارد. - ثبت مستندات فنی.
مستندات فنی باید همیشه به روز نگه داشته شوند و از عناصر مندرج در پیوست IV پیروی کنند، بنابراین باید حداقل شامل موارد زیر باشند:
الف) یک توصیف کلی از سیستم هوش مصنوعی به عنوان مثال هدف مورد نظر آن، یک نسخه از سیستم و شرح سخت افزار آن.
ب) شرح مفصلی از سیستم هوش مصنوعی شامل منطق کلی سیستم هوش مصنوعی، انتخابهای کلیدی طراحی، ویژگی اصلی دادههای آموزشی، گروه کاربران مورد هدف سیستم و آنچه که سیستم به دنبال بهینهسازی آن است.
ج) اطلاعات دقیق در مورد قابلیتها و محدودیتهای سیستم هوش مصنوعی در عملکرد، از جمله سطح کلی مورد انتظار از دقت و سطوح دقت برای گروههای خاصی از افراد، ارزیابی خطرات احتمالی برای سلامت، ایمنی، حقوق اساسی و تبعیض.
همچنین در صورتی که یک سیستم هوش مصنوعی پرخطر بخشی از محصولی باشد که با قوانین مندرج در پیوست مقررات پیشنهادی هوش مصنوعی (شامل ماشینآلات، دستگاههای پزشکی و اسباببازیها) تناسب دارد، سند فنی باید حاوی اطلاعات مورد نیاز مطابق با آن مقررات پیشنهادی قانونی نیز باشد.
- انجام الزامات مربوط به آموزش، آزمایش و مجموعه دادههای اعتبارسنجی استفاده شده
(البته در صورتی که سیستم توسط دادهها آموزش ببیند)، مجموعه دادهها باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند. آنها باید حاوی ویژگیهای آماری مناسب در مورد گروههایی از افراد باشند که سیستم هوش مصنوعی پرخطر برای آنها مورد استفاده قرار میگیرد.
ملاحظات باید مفروضات دادهها (آنچه دادهها قرار است اندازهگیری کنند و نمایش دهند)، بررسی سوگیری احتمالی و شناسایی هرگونه دادههای احتمالی حاوی شکاف و کاستی را در بر داشته باشد.
- دستیابی به سطح مناسبی از دقت، استحکام و امنیت سایبری
سیستمی که مطابق با مقررات پیشنهادی هوش مصنوعی به عنوان پرخطر مشخص شود باید در برابر خطاها و ناهماهنگیهای احتمالی در زمان استفاده انعطافپذیر و دقیق باشد. کاربران باید بتوانند سیستم را قطع کنند یا تصمیم بگیرند که از خروجی سیستم استفاده نکنند. همچنین سیستمهای هوش مصنوعی باید در برابر تلاش برای تغییر کاربری یا عملکردشان انعطافپذیر باشند. این تلاشهای معمولاً با استفاده از آسیبپذیریهای سیستم انجام میشود. - ارزیابی انطباق سیستم
برای آن دسته از سیستمهای پرخطر که تحت مقررات مندرج در پیوست II قرار میگیرند (مانند ماشینآلات، وسایل پزشکی و اسباببازی)، ارزیابی انطباق باید توسط مقامات تعیین شده در مقررات پیشنهادی انجام شود. - ارائه دستورالعملهای دقیق به کاربر
کاربران باید بتوانند خروجی سیستم را تفسیر کنند، بر عملکرد آن نظارت کنند (به عنوان مثال برای شناسایی علائم ناهنجاری، اختلالات و عملکردهای پیشبینی نشده) و همچنین باید نحوه استفاده مناسب از سیستم را بدانند. دستورالعملها باید حاوی اطلاعات تماس ارائهدهنده و نماینده مجاز آن باشد، ویژگیها، قابلیتها و محدودیتهای عملکرد را مشخص کند (از جمله شرایطی که ممکن است بر سطح عملکرد مورد انتظار تأثیر بگذارد)، به علاوه دستورالعملها باید مشخصات دادههای ورودی را به روشنی بیان کنند. - ثبت سیستم در پایگاه دادههای اتحادیه اروپا که در دسترس عموم قرار دارد.
همه سیستمهای پرخطر و اوراق خلاصه آنها باید در پایگاه دادههای اتحادیه اروپا ثبت شده و این اطلاعات باید همیشه به روز باشند. اوراق خلاصه باید شامل تمام اطلاعات فهرست شده در پیوست VIII مقررات پیشنهادی هوش مصنوعی از جمله اطلاعات تماس ارائه دهنده، نام تجاری سیستم هوش مصنوعی (به علاوه سایر اطلاعات شناسایی مرتبط)، شرح استفاده مورد نظر از سیستم، وضعیت سیستم هوش مصنوعی (در بازار / دیگر در بازار نیست / از بازار مرجوع شده است)، کپی از گواهیهای خاص، لیست کشورهای عضوی که سیستم در آن موجود است و دستورالعملهای الکترونیکی برای استفاده باشد. - ثبت رکوردها در زمان استفاده از سیستم
سیستم هوش مصنوعی باید در زمان فعالیت مطابق با ترتیبات قراردادی یا طبق قانون، به صورت خودکار رویدادها (log) را ثبت کند. این گزارشها را میتوان برای نظارت بر عملیات مورد استفاده قرار داد، به ارزیابی عملکرد مناسب سیستم هوش مصنوعی کمک میکند و توجه خاصی به وقوع موقعیتهای مخاطرهآمیز دارد. - حفظ نظارت پس از عرضه به بازار و گزارش حوادث و نقصهای جدی.
ارائهدهنده موظف است دادههای جمعآوریشده از کاربران (یا از طریق منابع دیگر) را در مورد عملکرد سیستمهای هوش مصنوعی پرخطر در طول عمرشان مستند و تجزیه و تحلیل کند و هر گونه حادثه جدی یا نقصی را گزارش دهند.
مقامات باید ضمن احترام به محرمانه بودن اطلاعات کسب و کارها به مجموعه دادههای آموزش، اعتبارسنجی و آزمایش و در صورت لزوم به کد منبع (سورس کد) دسترسی کامل داشته باشند.
از آنجایی که مقامات مورد بحث قدرت زیادی برای تعیین سیستمهای هوش مصنوعی مجاز به راهاندازی در بازار اتحادیه اروپا در اختیار دارند، این مقررات قوانین سختگیرانهای را برای طرفهایی تعیین میکند که قادر به انجام ارزیابیها هستند. به عنوان مثال، هیچگونه تضاد منافع مجاز نیست و مقامات اجازه ندارند هیچ فعالیت یا خدمات مشاورهای را ارائه دهند که قادر به رقابت با سیستمهای هوش مصنوعی باشد.
همچنین کاربران سیستمهای هوش مصنوعی پرخطر تعهداتی دارند: به عنوان مثال، آنها باید اطمینان حاصل کنند که دادههای ورودی برای کاربری مورد هدف از سیستم هوش مصنوعی پرخطر مناسب است و اگر کاربر با حادثه جدی یا نقص سیستم مواجه شود، باید استفاده از سیستم هوش مصنوعی را قطع کرده و به ارائهدهنده یا توزیع کننده رویداد اطلاع دهد.
تخلف از مقررات پیشنهادی هوش مصنوعی چه مجازاتی در پی دارد؟
جریمههای تخلف از مقررات پیشنهادی هوش مصنوعی به سه گروه زیر طبقهبندی میشوند:
- اجرای فعالیتهای ممنوعه هوش مصنوعی یا نقض الزامات تعیین شده برای دادهها: ۳۰ میلیون یورو یا ۶% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هرکدام بیشتر باشد.
- عدم رعایت هر یک از الزامات دیگر این مقررات: ۲۰ میلیون یورو یا ۴% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.
- ارائه اطلاعات نادرست، ناقص یا گمراهکننده در مورد الزامات تعیین شده در این مقررات: ۱۰ میلیون یورو یا ۲% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.
آیا قوانینی در کشورهای دیگر اعمال شدهاند؟
چین مقررات موقتی را برای کنترل هوش مصنوعی اجرا کرده است. چین مجموعهای از اقدامات موقت را برای مدیریت صنعت مولد هوش مصنوعی از ۱۵ آگوست صادر کرده که از ارائهدهندگان خدمات میخواهد قبل از عرضه محصولات هوش مصنوعی در بازار انبوه، ارزیابیهای امنیتی را ارائه و مجوز دریافت کنند.
سران گروه هفت (G7) هم در نشستی در هیروشیما در ماه می به نیاز به تنظیم مقررات برای هوش مصنوعی و فناوریهای فراگیر اذعان و موافقت کردند که وزیران درباره این فناوری بهعنوان «فرایند هوش مصنوعی هیروشیما» بحث و نتایج را تا پایان سال ۲۰۲۳ گزارش کنند.
در همین حال، بسیاری از کشورهای دیگر هم بررسی وضع قوانین در ارتباط با هوش مصنوعی را در دستورکار خود قرار داده و در حال حرکت به سمت تصویب قوانینی در این رابطه هستند.
جمعبندی
بنابراین نویسنده کاملاً از ایجاد مقررات پیشنهادی هوش مصنوعی در جهت کمک به تنظیم آن پشتیبانی میکند. زیرا توسعهدهندگان هوش مصنوعی بیش از حد بر روی ساخت سریع مدلها تمرکز میکنند و در بسیاری از موارد اهمیتی به رعایت اخلاق هوش مصنوعی نمیدهند.
ولی اظهار امیدواری است که قانونگذاران مقررات پیشنهادی را اصلاح کنند و فقط الزاماتی را قرار دهند که سیستمهای هوش مصنوعی قادر به انجام آنها در دنیای واقعی باشند.
حامیه نادری
آژانس خبری گردش اطلاعات