به روزرسانی

    آخرین اخبار خلاقانه را در مورد هنر و طراحی دریافت کنید.

    پست های اخیر

    یه تحقیق جدید نشون میده: تخم‌مرغ رو بدون نگرانی از کلسترول «بد» بخورید

    مرداد 7, 1404

    گوشی آیکو ۱۳ قراره ۴ ژوئیه با یه رنگ سبز جدید تو هند عرضه بشه

    تیر 14, 1404

    سامسونگ Bioepis برای تجاری سازی چندین بیوسیمیلار در ژاپن وارد یک همکاری استراتژیک با NIPRO می شود

    خرداد 19, 1404
    فیس بوک توییتر اینستاگرام
    تاختن نیوز
    فیس بوک توییتر اینستاگرام
    Button
    • صفحه اصلی
    • آشپزی
    • آموزشی
    • تکنولوژی
    • سلامتی
    تاختن نیوز
    صفحه اصلی»اخبار»یه گروه که یکی از رهبراش فی‌فی لیه، میگه قانونای ایمنی هوش مصنوعی باید ریسک‌های آینده رو پیش‌بینی کنن!
    اخبار

    یه گروه که یکی از رهبراش فی‌فی لیه، میگه قانونای ایمنی هوش مصنوعی باید ریسک‌های آینده رو پیش‌بینی کنن!

    ngal32lop2توسط ngal32lop2فروردین 1, 1404بدون دیدگاه4 دقیقه خواندن
    فیس بوک توییتر پینترست لینکدین تامبلر پست الکترونیک
    اشتراک گذاری
    فیس بوک توییتر لینکدین پینترست پست الکترونیک

    تو یه گزارش جدید، یه گروه سیاست‌گذاری تو کالیفرنیا که یکی از رهبراش فی‌فی لی (از پیشگامان هوش مصنوعی) هست، میگه قانون‌گذارا باید موقع ساختن قانونای مربوط به هوش مصنوعی، ریسک‌های هوش مصنوعی رو که “هنوز تو دنیا دیده نشدن” هم در نظر بگیرن.

    این گزارش 41 صفحه‌ای که سه‌شنبه منتشر شد، حاصل کار “گروه کاری مشترک سیاست‌گذاری کالیفرنیا در مورد مدل‌های پیشرفته هوش مصنوعی” هست. این گروه بعد از اینکه گاوین نیوسام (فرماندار کالیفرنیا) لایحه بحث‌برانگیز ایمنی هوش مصنوعی SB 1047 رو وتو کرد، تشکیل شد. نیوسام معتقد بود که SB 1047 هدف رو درست نزده، اما سال گذشته به این نیاز اذعان کرد که یه ارزیابی گسترده‌تر از ریسک‌های هوش مصنوعی برای آگاه کردن قانون‌گذارا لازمه.

    تو این گزارش، لی و همکاراش جنیفر چیز (رئیس دانشکده محاسبات دانشگاه برکلی) و ماریانو-فلورنتینو کوئلار (رئیس بنیاد کارنگی برای صلح بین‌المللی)، از قانونایی حمایت می‌کنن که شفافیت رو درباره چیزایی که آزمایشگاه‌های پیشرفته هوش مصنوعی مثل OpenAI دارن می‌سازن، بیشتر کنه. قبل از انتشار این گزارش، ذی‌نفعان صنعت از سراسر طیف ایدئولوژیک، از جمله طرفداران سرسخت ایمنی هوش مصنوعی مثل یوشوا بنجیو (برنده جایزه تورینگ) و کسایی که با SB 1047 مخالف بودن، مثل ایان استویکا (یکی از بنیانگذاران Databricks)، این گزارش رو بررسی کردن.

    طبق این گزارش، ریسک‌های جدیدی که سیستم‌های هوش مصنوعی ایجاد می‌کنن، ممکنه به قانونایی نیاز داشته باشه که توسعه‌دهنده‌های مدل‌های هوش مصنوعی رو مجبور کنه تست‌های ایمنی، شیوه‌های جمع‌آوری داده و اقدامات امنیتی خودشون رو به طور عمومی گزارش بدن. این گزارش همچنین از افزایش استانداردها در مورد ارزیابی‌های شخص ثالث از این معیارها و سیاست‌های شرکتی، علاوه بر گسترش حمایت از افشاگران برای کارمندان و پیمانکاران شرکت‌های هوش مصنوعی، حمایت می‌کنه.

    لی و همکاراش نوشتن که “سطح شواهد برای پتانسیل هوش مصنوعی در کمک به انجام حملات سایبری، ایجاد سلاح‌های بیولوژیکی یا ایجاد سایر تهدیدهای “شدید”” قطعی نیست. با این حال، اونا همچنین استدلال می‌کنن که سیاست هوش مصنوعی نباید فقط به ریسک‌های فعلی بپردازه، بلکه باید پیامدهای آینده رو هم پیش‌بینی کنه که ممکنه بدون محافظت‌های کافی رخ بدن.

    تو این گزارش اومده: “به عنوان مثال، ما نیازی نداریم که شاهد انفجار یه سلاح هسته‌ای باشیم تا به طور قابل اعتمادی پیش‌بینی کنیم که می‌تونه و آسیب زیادی وارد می‌کنه.” “اگر کسایی که درباره شدیدترین ریسک‌ها حدس می‌زنن درست بگن – و ما مطمئن نیستیم که درست میگن یا نه – پس خطرات و هزینه‌های عدم اقدام در مورد هوش مصنوعی پیشرفته تو این لحظه بسیار بالاست.”

    این گزارش یه استراتژی دو جانبه رو برای افزایش شفافیت توسعه مدل هوش مصنوعی توصیه می‌کنه: اعتماد کن اما راستی‌آزمایی کن. این گزارش میگه که باید راه‌هایی برای گزارش دادن درباره حوزه‌های مورد نگرانی عمومی، مثل تست‌های ایمنی داخلی، در اختیار توسعه‌دهنده‌های مدل هوش مصنوعی و کارمندانشون قرار داده بشه، در حالی که از اونا خواسته میشه ادعاهای مربوط به تست‌ها رو برای تأیید شخص ثالث ارائه بدن.

    در حالی که این گزارش (نسخه نهایی اون قراره تو ژوئن 2025 منتشر بشه) هیچ قانون خاصی رو تایید نمی‌کنه، اما از سوی کارشناسان هر دو طرف بحث سیاست‌گذاری هوش مصنوعی به خوبی دریافت شده.

    دین بال، یه پژوهشگر متمرکز بر هوش مصنوعی در دانشگاه جورج میسون که از SB 1047 انتقاد کرده بود، تو یه پست تو X گفت که این گزارش یه گام امیدوارکننده برای تنظیم ایمنی هوش مصنوعی تو کالیفرنیاست. به گفته سناتور ایالت کالیفرنیا، اسکات واینر، که سال گذشته SB 1047 رو معرفی کرد، این گزارش همچنین یه پیروزی برای طرفداران ایمنی هوش مصنوعیه. واینر تو یه بیانیه مطبوعاتی گفت که این گزارش “بحث‌های فوری در مورد حکمرانی هوش مصنوعی رو که تو مجلس قانون‌گذاری [تو سال 2024] شروع کردیم، گسترش میده.”

    به نظر می‌رسه این گزارش با چندین مولفه SB 1047 و لایحه بعدی واینر، SB 53، همسو باشه، مثل الزام توسعه‌دهنده‌های مدل هوش مصنوعی به گزارش نتایج تست‌های ایمنی. به طور کلی‌تر، به نظر می‌رسه این گزارش یه پیروزی بسیار مورد نیاز برای طرفداران ایمنی هوش مصنوعیه، کسایی که دستور کارشون تو سال گذشته جایگاه خودشو از دست داده.

     

    منبع: techcrunch

    Share. فیس بوک توییتر پینترست لینکدین تامبلر پست الکترونیک
    مقاله قبلیشرکت بیمه بلو شیلد و شرکت تراایو گلوبال آریانا هافینگتون یه کتاب آشپزی رایگان منتشر کردند که توش دستور غذاهای سالم و ارزون هست.
    مقاله بعدی اتاق امن ، راه اندازی رسمی “اتاق تمیز تخت” برای مسدود کردن عفونت اتاق های بیمارستان
    ngal32lop2

    پست های مرتبط*

    یه تحقیق جدید نشون میده: تخم‌مرغ رو بدون نگرانی از کلسترول «بد» بخورید

    مرداد 7, 1404

    گوشی آیکو ۱۳ قراره ۴ ژوئیه با یه رنگ سبز جدید تو هند عرضه بشه

    تیر 14, 1404

    سامسونگ Bioepis برای تجاری سازی چندین بیوسیمیلار در ژاپن وارد یک همکاری استراتژیک با NIPRO می شود

    خرداد 19, 1404

    پاسخ دهید لغو پاسخ

    عنوان بالا و اینتر را برای جستجو فشار دهید. برای لغو، Esc را فشار دهید.