تو یه گزارش جدید، یه گروه سیاستگذاری تو کالیفرنیا که یکی از رهبراش فیفی لی (از پیشگامان هوش مصنوعی) هست، میگه قانونگذارا باید موقع ساختن قانونای مربوط به هوش مصنوعی، ریسکهای هوش مصنوعی رو که “هنوز تو دنیا دیده نشدن” هم در نظر بگیرن.
این گزارش 41 صفحهای که سهشنبه منتشر شد، حاصل کار “گروه کاری مشترک سیاستگذاری کالیفرنیا در مورد مدلهای پیشرفته هوش مصنوعی” هست. این گروه بعد از اینکه گاوین نیوسام (فرماندار کالیفرنیا) لایحه بحثبرانگیز ایمنی هوش مصنوعی SB 1047 رو وتو کرد، تشکیل شد. نیوسام معتقد بود که SB 1047 هدف رو درست نزده، اما سال گذشته به این نیاز اذعان کرد که یه ارزیابی گستردهتر از ریسکهای هوش مصنوعی برای آگاه کردن قانونگذارا لازمه.
تو این گزارش، لی و همکاراش جنیفر چیز (رئیس دانشکده محاسبات دانشگاه برکلی) و ماریانو-فلورنتینو کوئلار (رئیس بنیاد کارنگی برای صلح بینالمللی)، از قانونایی حمایت میکنن که شفافیت رو درباره چیزایی که آزمایشگاههای پیشرفته هوش مصنوعی مثل OpenAI دارن میسازن، بیشتر کنه. قبل از انتشار این گزارش، ذینفعان صنعت از سراسر طیف ایدئولوژیک، از جمله طرفداران سرسخت ایمنی هوش مصنوعی مثل یوشوا بنجیو (برنده جایزه تورینگ) و کسایی که با SB 1047 مخالف بودن، مثل ایان استویکا (یکی از بنیانگذاران Databricks)، این گزارش رو بررسی کردن.
طبق این گزارش، ریسکهای جدیدی که سیستمهای هوش مصنوعی ایجاد میکنن، ممکنه به قانونایی نیاز داشته باشه که توسعهدهندههای مدلهای هوش مصنوعی رو مجبور کنه تستهای ایمنی، شیوههای جمعآوری داده و اقدامات امنیتی خودشون رو به طور عمومی گزارش بدن. این گزارش همچنین از افزایش استانداردها در مورد ارزیابیهای شخص ثالث از این معیارها و سیاستهای شرکتی، علاوه بر گسترش حمایت از افشاگران برای کارمندان و پیمانکاران شرکتهای هوش مصنوعی، حمایت میکنه.
لی و همکاراش نوشتن که “سطح شواهد برای پتانسیل هوش مصنوعی در کمک به انجام حملات سایبری، ایجاد سلاحهای بیولوژیکی یا ایجاد سایر تهدیدهای “شدید”” قطعی نیست. با این حال، اونا همچنین استدلال میکنن که سیاست هوش مصنوعی نباید فقط به ریسکهای فعلی بپردازه، بلکه باید پیامدهای آینده رو هم پیشبینی کنه که ممکنه بدون محافظتهای کافی رخ بدن.
تو این گزارش اومده: “به عنوان مثال، ما نیازی نداریم که شاهد انفجار یه سلاح هستهای باشیم تا به طور قابل اعتمادی پیشبینی کنیم که میتونه و آسیب زیادی وارد میکنه.” “اگر کسایی که درباره شدیدترین ریسکها حدس میزنن درست بگن – و ما مطمئن نیستیم که درست میگن یا نه – پس خطرات و هزینههای عدم اقدام در مورد هوش مصنوعی پیشرفته تو این لحظه بسیار بالاست.”
این گزارش یه استراتژی دو جانبه رو برای افزایش شفافیت توسعه مدل هوش مصنوعی توصیه میکنه: اعتماد کن اما راستیآزمایی کن. این گزارش میگه که باید راههایی برای گزارش دادن درباره حوزههای مورد نگرانی عمومی، مثل تستهای ایمنی داخلی، در اختیار توسعهدهندههای مدل هوش مصنوعی و کارمندانشون قرار داده بشه، در حالی که از اونا خواسته میشه ادعاهای مربوط به تستها رو برای تأیید شخص ثالث ارائه بدن.
در حالی که این گزارش (نسخه نهایی اون قراره تو ژوئن 2025 منتشر بشه) هیچ قانون خاصی رو تایید نمیکنه، اما از سوی کارشناسان هر دو طرف بحث سیاستگذاری هوش مصنوعی به خوبی دریافت شده.
دین بال، یه پژوهشگر متمرکز بر هوش مصنوعی در دانشگاه جورج میسون که از SB 1047 انتقاد کرده بود، تو یه پست تو X گفت که این گزارش یه گام امیدوارکننده برای تنظیم ایمنی هوش مصنوعی تو کالیفرنیاست. به گفته سناتور ایالت کالیفرنیا، اسکات واینر، که سال گذشته SB 1047 رو معرفی کرد، این گزارش همچنین یه پیروزی برای طرفداران ایمنی هوش مصنوعیه. واینر تو یه بیانیه مطبوعاتی گفت که این گزارش “بحثهای فوری در مورد حکمرانی هوش مصنوعی رو که تو مجلس قانونگذاری [تو سال 2024] شروع کردیم، گسترش میده.”
به نظر میرسه این گزارش با چندین مولفه SB 1047 و لایحه بعدی واینر، SB 53، همسو باشه، مثل الزام توسعهدهندههای مدل هوش مصنوعی به گزارش نتایج تستهای ایمنی. به طور کلیتر، به نظر میرسه این گزارش یه پیروزی بسیار مورد نیاز برای طرفداران ایمنی هوش مصنوعیه، کسایی که دستور کارشون تو سال گذشته جایگاه خودشو از دست داده.
منبع: techcrunch