Kabul

توافق تاریخی اتحادیه اروپا در زمینه توسعه هوش مصنوعی

به‌دنبال مجموعه مذاکراتی که هفته گذشته در اتحادیه اروپا صورت گرفت، قانون‌گذاران نهایتاً بر سر طرح پیشنهادی “قانون هوش مصنوعی” (AI Act) با یکدیگر به توافق رسیدند.

این طرح ظاهراً اولین قانون دنیا خواهد بود که به‌شکلی جامع بر هوش مصنوعی نظارت خواهد کرد و می‌تواند مبنایی برای قوانین مشابه در دیگر نقاط دنیا باشد.

اتحادیه اروپا بر سر تدوین مقررات قانونی در هدایت و استفاده از هوش مصنوعی به یک توافق تاریخی رسیده است.

حال، اجرای قانون جدید مستلزم تصویب از سوی پارلمان اروپا و تائید کشورهای عضو اتحادیه اروپا است.

این توافق موقت روز جمعه، هشتم دسامبر، درخصوص استفاده از هوش مصنوعی در اقداماتی از‌جمله تشخیص چهره و نحوه تنظیم سیستم‌های هوش مصنوعی مانند چت جی‌پی‌تی دست یافتند.

به نقل از رویترز، گاردین و واشنگتن پست با این توافق مهم، اتحادیه اروپا به اولین قدرت بزرگ جهانی تبدیل می‌شود که قوانین حاکم بر هوش مصنوعی را وضع می‌کند.

با این توافق سیاسی، اتحادیه اروپا اولین بلوک بزرگ جهانی است که قوانین مربوط به هوش مصنوعی را وضع می‌کند.

توافق بین کشور‌های اتحادیه اروپا و اعضای پارلمان اروپا پس از نزدیک به ۱۵ ساعت مذاکره که پس از یک مناظره تقریبا ۲۴ ساعته در روز پنشنبه انجام شد.
کمیسیون اروپا این لایحه را از اپریل سال ۲۰۲۱ در مورد هوش مصنوعی و خطر های احتمالی آن به تعویق انداخت.

بر اساس مقررات تازه اروپا، هر اپلیکشن و سافت ویر که با هوش مصنوعی کار می کند، پیش از آنکه به بازار عرضه می شود، باید با دقت ارزیابی شود.

براساس بیانیه منتشرشده، اگر تخلفی در این میان صورت می گیرد، مشتریان می توانند تخلف را به کمیسیون اروپا گزارش دهند. ضمنا، اگر تخلف ثابت شود، شرکت یا افرادی که از مقررات اتحادیه اروپا سرپیچی کرده اند، از ۷.۵ میلیون تا ۳۵ میلیون یورو جریمه شده می توانند.

تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در بروکسل پس از مذاکرات ۳۶ ساعته بین مذاکره‌کنندگان کشورهای عضو اتحادیه اروپا و پارلمان اروپا طی بیانیه گفت: «اروپا اولین قاره‌ای خواهد بود که قوانین واضحی را برای استفاده از ‌هوش مصنوعی تعیین می‌کند. این یک توافق تاریخی است.»

وی در ادامه گفت: ساندار پیچای مدیر عامل گوگل و من توافق کردیم که نمی‌توانیم منتظر بمانیم تا مقررات هوش مصنوعی واقعاً قابل اجرا شود و با همه توسعه‌دهندگان هوش مصنوعی همکاری کنیم تا پیش از موعد قانونی، یک پیمان هوش مصنوعی به صورت داوطلبانه ایجاد کنیم.

به گفته برتون، پارلمان اروپا ممنوعیت استفاده از فناوری‌های بیومتریک از جمله تشخیص چهره را با سه استثنا تضمین کرده است: به طوری که پولیس تنها در صورت تهدید غیرمنتظره حمله تروریستی، نیاز به جست‌وجو برای قربانیان و تعقیب جرایم جدی می‌تواند از این فناوری استفاده کند.

دراگوش تودوراچه، قانونگذار رومانیایی که مذاکره قانون هوش مصنوعی را رهبری می‌کند، به واشنگتن پست گفت: این قانون یک استاندارد، یک مدل برای بسیاری از حوزه‌های قضایی دیگر را نشان می‌دهد. این بدان معناست که وقتی آن را تهیه می‌کنیم، باید مراقبت بیشتری داشته باشیم، زیرا برای بسیاری دیگر تأثیرگذار خواهد بود.

این مقررات پیشنهادی، راه‌هایی را تعیین می‌کنند که در آن مدل‌های یادگیری ماشینی آینده می‌توانند در بلوک تجاری توسعه و توزیع شوند و بر استفاده از آنها در برنامه‌های مختلف از آموزش گرفته تا اشتغال و مراقبت‌های بهداشتی تأثیر بگذارد.

کتر برندی نونک مدیر آزمایشگاه سیاست CITRIS در دانشگاه برکلی می‌گوید: کمیسیون اروپا بار دیگر به شیوه‌ای جسورانه برای رسیدگی به فناوری‌های نوظهور قدم برداشته است، درست مانند کاری که با حفظ حریم خصوصی داده‌ها از طریق GDPR انجام داده است.

وی افزود: این مقررات پیشنهادی بسیار جالب است، زیرا مشابه با آنچه در چارچوب نظارتی پیشنهادی هوش مصنوعی کانادا پیشنهاد شده است، از یک رویکرد مبتنی بر خطر به موضوع رسیدگی می‌کند.

کمیسیون اتحادیه اروپا با ریاست اورزولا فون در لاین برای اولین بار در ماه آوریل سال ۲۰۲۱ میلادی یک چارچوب قانونی برای استفاده از هوش مصنوعی را پیشنهاد کرد که قبلاً مذاکرات جاری بر سر قوانین پیشنهادی در هفته‌های اخیر توسط فرانسه، آلمان و ایتالیا مختل شده بود.

بحث‌ها بر سر قوانینی بود که چگونه کشورهای عضو اتحادیه اروپا می‌توانند مدل‌های بنیادی، هوش مصنوعی تعمیم‌یافته‌ای را توسعه دهند که می‌توان از آن‌ها برنامه‌های تخصصی‌تر را تنظیم کرد.

جزئیات قوانین اتحادیه اروپا
این توافق‌نامه، مدل‌های بنیادی هوش مصنوعی مانند چت جی‌پی‌تی و سیستم‌های هوش مصنوعی عمومی (GPAI) را ملزم می‌کند تا قبل از عرضه به بازار، از «تعهدات شفافیت» پیروی کنند.

این‌ها شامل تهیه اسناد فنی، مطابقت با قانون حق چاپ اتحادیه اروپا و انتشار خلاصه‌های دقیق درباره محتوای مورد استفاده برای آموزش است.

مدل‌های بنیادی هوش مصنوعی با تاثیر بالا با ریسک سیستمی باید ارزیابی و کاهش خطرات سیستمی، انجام آزمایش‌های متخاصم، گزارش به کمیسیون اروپا درباره حوادث جدی، اطمینان از امنیت سایبری و گزارش درباره بهره‌وری انرژی خود را انجام دهند.

سیستم‌های هوش مصنوعی عمومی با ریسک سیستماتیک ممکن است برای انطباق با مقررات جدید به کد‌های عملی متکی باشند.

دولت‌ها فقط می‌توانند از نظارت بیومتریک در فضا‌های عمومی در موارد مواجهه قربانیان جرایم خاص، پیشگیری از تهدید‌های واقعی، فعلی یا قابل پیش‌بینی مانند حملات تروریستی و جست‌وجو برای افراد مظنون به جدی‌ترین جنایات استفاده کنند.

این توافق، دستکاری شناختی رفتاری، حذف بدون هدف تصاویر صورت از اینترنت یا فیلم‌های دوربین‌های مداربسته، امتیازدهی اجتماعی و سیستم‌های طبقه‌بندی بیومتریک برای استنتاج عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد را ممنوع می‌کند.

مصرف‌کنندگان حق دارند شکایات خود را مطرح و توضیحات معناداری دریافت کنند؛ در حالی که جریمه تخلفات شرکت‌های توسعه‌دهنده هوش مصنوعی از ۷.۵ میلیون یورو (۸.۱ میلیون دلار) یا ۱.۵ درصد گردش مالی تا ۳۵ میلیون یورو یا هفت درصد از گردش مالی جهانی این شرکت‌ها متغیر است.

انتظار می‌رود این قانون در اوایل سال آینده پس از تصویب رسمی آن از سوی طرفین لازم‌الاجرا و ۲ سال پس از آن اعمال شود.

دولت‌ها در سرتاسر جهان به دنبال ایجاد تعادل میان مزایای این فناوری هستند که می‌تواند در مکالمات انسان‌مانند شرکت کند، به سوالات پاسخ دهد و کد‌های رایانه‌ای بنویسد.

قوانین هوش مصنوعی اروپا در حالی است که شرکت‌هایی مانند اوپن ای‌آی که مایکروسافت در آن سرمایه‌گذار است، همچنان به کشف کاربرد‌های جدید فناوری خود ادامه می‌دهند که باعث تحسین و نگرانی‌ها می‌شود.

مالک شرکت گوگل آلفابت روز پنجشنبه یک مدل هوش مصنوعی جدید به نام Gemini را برای رقابت با اوپن ای‌آی راه‌اندازی کرد.

چرا اتحادیه اروپا مقررات پیشنهادی هوش مصنوعی را تدوین کرده است؟

برای درک فوریت این اقدام، لازم است در مورد انگیزه پشت ارائه مقررات هوش مصنوعی اتحادیه اروپا اطلاعاتی داشته باشیم. دو دلیل اصلی برای ارائه این مقررات وجود دارد که شامل موارد زیر است.

  1. اطمینان از ایمنی و احترام به حقوق اساسی و ارزش‌های اتحادیه اروپا.
    قانون اتحادیه اروپا مبتنی بر ارزش‌های اساسی اتحادیه شامل احترام به کرامت انسانی، آزادی و دموکراسی است. اتحادیه اروپا برای حقوق اساسی شامل حق عدم تبعیض، برابری بین زنان و مردان، حفاظت از داده‌ها، حریم خصوصی و حقوق کودک اهمیت زیادی قائل است.

فناوری هوش مصنوعی مزایای متعددی ارائه دارد. ولی سیستم‌های هوش مصنوعی می‌توانند به شدت با ارزش‌ها و حقوق اتحادیه در تضاد باشند.

بنابراین ابزارهای قدرتمندی برای انجام فعالیت‌های زیان‌آور محسوب می‌شوند. اطمینان از توسعه هوش مصنوعی با احترام به حقوق مردم و جلب اعتماد آن‌ها، فضای اروپا را برای ورود به عصر دیجیتال مناسب می‌سازد.

  1. جلوگیری از تکه شدن بازار در داخل اتحادیه اروپا
    خطرات سیستم‌های هوش مصنوعی در حال آشکار شدن است. بنابراین برخی از کشورهای عضو در حال بررسی و وضع مقررات پیشنهادی هوش مصنوعی در سطح ملی هستند.

از طرفی محصولات و خدمات به احتمال زیاد از مرزهای کشورها عبور می‌کنند. پس وجود قوانین ملی متفاوت در داخل اتحادیه اروپا بازار آن را تکه تکه می‌کند. به علاوه حفاظت از حقوق اساسی و ارزش‌های اتحادیه را در کشورهای مختلف عضو به خطر می‌اندازد.

الزامات مقررات هوش مصنوعی اتحادیه اروپا برای اپلیکیشن‌ها؛
این مقررات به شدت بر ارزیابی داخلی از طریق گزارش‌گیری متکی است. فهرست الزامات اپلیکیشن‌ها در مقررات پیشنهادی هوش مصنوعی پرخطر طولانی و اغلب گیچ کننده است و تشخیص صحیح آن به دقت زیادی نیاز دارد.

ارائه دهندگان سیستم‌های پرخطر حداقل باید کارهای زیر را انجام دهند:

  1. ایجاد یک سیستم مدیریت ریسک.
    این سیستم باید به صورت منظم در طول چرخه عمر یک سیستم هوش مصنوعی پرخطر به روزرسانی شود. ارائه دهندگان باید تمام خطرات شناخته شده و قابل پیش‌بینی احتمالی در زمان استفاده از سیستم هوش مصنوعی پرخطر را شناسایی و تحلیل کنند. به خصوص اگر بر کودکان تأثیر بگذارد.
  2. ثبت مستندات فنی.
    مستندات فنی باید همیشه به روز نگه داشته شوند و از عناصر مندرج در پیوست IV پیروی کنند، بنابراین باید حداقل شامل موارد زیر باشند:
    الف) یک توصیف کلی از سیستم هوش مصنوعی به عنوان مثال هدف مورد نظر آن، یک نسخه از سیستم و شرح سخت افزار آن.

ب) شرح مفصلی از سیستم هوش مصنوعی شامل منطق کلی سیستم هوش مصنوعی، انتخاب‌های کلیدی طراحی، ویژگی اصلی داده‌های آموزشی، گروه کاربران مورد هدف سیستم و آن‌چه که سیستم به دنبال بهینه‌سازی آن است.

ج) اطلاعات دقیق در مورد قابلیت‌ها و محدودیت‌های سیستم هوش مصنوعی در عملکرد، از جمله سطح کلی مورد انتظار از دقت و سطوح دقت برای گروه‌های خاصی از افراد، ارزیابی خطرات احتمالی برای سلامت، ایمنی، حقوق اساسی و تبعیض.

هم‌چنین در صورتی که یک سیستم هوش مصنوعی پرخطر بخشی از محصولی باشد که با قوانین مندرج در پیوست مقررات پیشنهادی هوش مصنوعی (شامل ماشین‌آلات، دستگاه‌های پزشکی و اسباب‌بازی‌ها) تناسب دارد، سند فنی باید حاوی اطلاعات مورد نیاز مطابق با آن مقررات پیشنهادی قانونی نیز باشد.

  1. انجام الزامات مربوط به آموزش، آزمایش و مجموعه داده‌های اعتبارسنجی استفاده شده
    (البته در صورتی که سیستم توسط داده‌ها آموزش ببیند)، مجموعه داده‌ها باید مرتبط، معرف هدف مورد نظر، عاری از خطا و کامل باشند. آن‌ها باید حاوی ویژگی‌های آماری مناسب در مورد گروه‌هایی از افراد باشند که سیستم هوش مصنوعی پرخطر برای آن‌ها مورد استفاده قرار می‌گیرد.

ملاحظات باید مفروضات داده‌ها (آنچه داده‌ها قرار است اندازه‌گیری کنند و نمایش دهند)، بررسی سوگیری احتمالی و شناسایی هرگونه داده‌های احتمالی حاوی شکاف‌ و کاستی‌ را در بر داشته باشد.

  1. دستیابی به سطح مناسبی از دقت، استحکام و امنیت سایبری
    سیستمی که مطابق با مقررات پیشنهادی هوش مصنوعی به عنوان پرخطر مشخص شود باید در برابر خطاها و ناهماهنگی‌های احتمالی در زمان استفاده انعطاف‌پذیر و دقیق باشد. کاربران باید بتوانند سیستم را قطع کنند یا تصمیم بگیرند که از خروجی سیستم استفاده نکنند. هم‌چنین سیستم‌های هوش مصنوعی باید در برابر تلاش‌ برای تغییر کاربری یا عملکردشان انعطاف‌پذیر باشند. این تلاش‌های معمولاً با استفاده از آسیب‌پذیری‌های سیستم انجام می‌شود.
  2. ارزیابی انطباق سیستم
    برای آن دسته از سیستم‌های پرخطر که تحت مقررات مندرج در پیوست II قرار می‌گیرند (مانند ماشین‌آلات، وسایل پزشکی و اسباب‌بازی)، ارزیابی انطباق باید توسط مقامات تعیین شده در مقررات پیشنهادی انجام شود.
  3. ارائه دستورالعمل‌های دقیق به کاربر
    کاربران باید بتوانند خروجی سیستم را تفسیر کنند، بر عملکرد آن نظارت کنند (به عنوان مثال برای شناسایی علائم ناهنجاری، اختلالات و عملکردهای پیش‌بینی نشده) و هم‌چنین باید نحوه استفاده مناسب از سیستم را بدانند. دستورالعمل‌ها باید حاوی اطلاعات تماس ارائه‌دهنده و نماینده مجاز آن باشد، ویژگی‌ها، قابلیت‌ها و محدودیت‌های عملکرد را مشخص کند (از جمله شرایطی که ممکن است بر سطح عملکرد مورد انتظار تأثیر بگذارد)، به علاوه دستورالعمل‌ها باید مشخصات داده‌های ورودی را به روشنی بیان کنند.
  4. ثبت سیستم در پایگاه داده‌های اتحادیه اروپا که در دسترس عموم قرار دارد.
    همه سیستم‌های پرخطر و اوراق خلاصه آن‌ها باید در پایگاه داده‌های اتحادیه اروپا ثبت شده و این اطلاعات باید همیشه به روز باشند. اوراق خلاصه باید شامل تمام اطلاعات فهرست شده در پیوست VIII مقررات پیشنهادی هوش مصنوعی از جمله اطلاعات تماس ارائه دهنده، نام تجاری سیستم هوش مصنوعی (به علاوه سایر اطلاعات شناسایی مرتبط)، شرح استفاده مورد نظر از سیستم، وضعیت سیستم هوش مصنوعی (در بازار / دیگر در بازار نیست / از بازار مرجوع شده است)، کپی از گواهی‌های خاص، لیست کشورهای عضوی که سیستم در آن موجود است و دستورالعمل‌های الکترونیکی برای استفاده باشد.
  5. ثبت رکوردها در زمان استفاده از سیستم
    سیستم هوش مصنوعی باید در زمان فعالیت مطابق با ترتیبات قراردادی یا طبق قانون، به صورت خودکار رویدادها (log) را ثبت کند. این گزارش‌ها را می‌توان برای نظارت بر عملیات مورد استفاده قرار داد، به ارزیابی عملکرد مناسب سیستم هوش مصنوعی کمک می‌کند و توجه خاصی به وقوع موقعیت‌های مخاطره‌آمیز دارد.
  6. حفظ نظارت پس از عرضه به بازار و گزارش حوادث و نقص‌های جدی.

ارائه‌دهنده موظف است داده‌های جمع‌آوری‌شده از کاربران (یا از طریق منابع دیگر) را در مورد عملکرد سیستم‌های هوش مصنوعی پرخطر در طول عمرشان مستند و تجزیه و تحلیل کند و هر گونه حادثه جدی یا نقصی را گزارش دهند.

مقامات باید ضمن احترام به محرمانه بودن اطلاعات کسب و کارها به مجموعه داده‌های آموزش، اعتبارسنجی و آزمایش و در صورت لزوم به کد منبع (سورس کد) دسترسی کامل داشته باشند.

از آنجایی که مقامات مورد بحث قدرت زیادی برای تعیین سیستم‌های هوش مصنوعی مجاز به راه‌اندازی در بازار اتحادیه اروپا در اختیار دارند، این مقررات قوانین سخت‌گیرانه‌ای را برای طرف‌هایی تعیین می‌کند که قادر به انجام ارزیابی‌ها هستند. به عنوان مثال، هیچ‌گونه تضاد منافع مجاز نیست و مقامات اجازه ندارند هیچ فعالیت یا خدمات مشاوره‌ای را ارائه دهند که قادر به رقابت با سیستم‌های هوش مصنوعی باشد.

هم‌چنین کاربران سیستم‌های هوش مصنوعی پرخطر تعهداتی دارند: به عنوان مثال، آنها باید اطمینان حاصل کنند که داده‌های ورودی برای کاربری مورد هدف از سیستم هوش مصنوعی پرخطر مناسب است و اگر کاربر با حادثه جدی یا نقص سیستم مواجه شود، باید استفاده از سیستم هوش مصنوعی را قطع کرده و به ارائه‌دهنده یا توزیع کننده رویداد اطلاع دهد.

تخلف از مقررات پیشنهادی هوش مصنوعی چه مجازاتی در پی دارد؟
جریمه‌های تخلف از مقررات پیشنهادی هوش مصنوعی به سه گروه زیر طبقه‌بندی می‌شوند:

  1. اجرای فعالیت‌های ممنوعه هوش مصنوعی یا نقض الزامات تعیین شده برای داده‌ها: ۳۰ میلیون یورو یا ۶% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هرکدام بیشتر باشد.
  2. عدم رعایت هر یک از الزامات دیگر این مقررات: ۲۰ میلیون یورو یا ۴% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.
  3. ارائه اطلاعات نادرست، ناقص یا گمراه‌کننده در مورد الزامات تعیین شده در این مقررات: ۱۰ میلیون یورو یا ۲% از کل گردش مالی سالانه جهانی برای سال مالی قبل، هر کدام بیشتر باشد.

آیا قوانینی در کشور‌های دیگر اعمال شده‌اند؟
چین مقررات موقتی را برای کنترل هوش مصنوعی اجرا کرده است. چین مجموعه‌ای از اقدامات موقت را برای مدیریت صنعت مولد هوش مصنوعی از ۱۵ آگوست صادر کرده که از ارائه‌دهندگان خدمات می‌خواهد قبل از عرضه محصولات هوش مصنوعی در بازار انبوه، ارزیابی‌های امنیتی را ارائه و مجوز دریافت کنند.

سران گروه هفت (G7) هم در نشستی در هیروشیما در ماه می‌ به نیاز به تنظیم مقررات برای هوش مصنوعی و فناوری‌های فراگیر اذعان و موافقت کردند که وزیران درباره این فناوری به‌عنوان «فرایند هوش مصنوعی هیروشیما» بحث و نتایج را تا پایان سال ۲۰۲۳ گزارش کنند.

در همین حال، بسیاری از کشور‌های دیگر هم بررسی وضع قوانین در ارتباط با هوش مصنوعی را در دستورکار خود قرار داده و در حال حرکت به سمت تصویب قوانینی در این رابطه هستند.

جمع‌بندی
بنابراین نویسنده کاملاً از ایجاد مقررات پیشنهادی هوش مصنوعی در جهت کمک به تنظیم آن پشتیبانی می‌کند. زیرا توسعه‌دهندگان هوش مصنوعی بیش از حد بر روی ساخت سریع مدل‌ها تمرکز می‌کنند و در بسیاری از موارد اهمیتی به رعایت اخلاق هوش مصنوعی نمی‌دهند.

ولی اظهار امیدواری است که قانون‌گذاران مقررات پیشنهادی را اصلاح کنند و فقط الزاماتی را قرار دهند که سیستم‌های هوش مصنوعی قادر به انجام آن‌ها در دنیای واقعی باشند.

حامیه نادری
آژانس خبری گردش اطلاعات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا