یک آزمایشگاه چینی از آنچه به نظر می رسد یکی از اولین مدل های هوش مصنوعی «استدلال» برای رقابت با OpenAI’s o1 است، رونمایی کرده است.
روز چهارشنبه، DeepSeek، یک شرکت تحقیقاتی هوش مصنوعی که توسط معامله گران کمی تامین می شود، پیش نمایشی از DeepSeek-R1 را منتشر کرد، که این شرکت ادعا می کند یک مدل استدلالی قابل رقابت با o1 است.
برخلاف اکثر مدلها، مدلهای استدلالی با صرف زمان بیشتر برای بررسی یک سؤال یا پرس و جو، خود را به طور مؤثر بررسی میکنند. این به آنها کمک میکند از برخی از مشکلاتی که معمولاً مدلها را خراب میکنند اجتناب کنند.
مشابه o1، DeepSeek-R1 از طریق وظایف، برنامه ریزی پیش رو و انجام مجموعه ای از اقدامات که به مدل کمک می کند تا به پاسخ برسد، دلایل می کند. این ممکن است کمی طول بکشد. مانند o1، بسته به پیچیدگی سوال، DeepSeek-R1 ممکن است ده ها ثانیه قبل از پاسخ دادن “فکر” کند.
DeepSeek ادعا می کند که DeepSeek-R1 (یا به طور دقیق DeepSeek-R1-Lite-Preview) در دو معیار محبوب هوش مصنوعی، AIME و MATH، همتراز با مدل O1-preview OpenAI عمل می کند. AIME از مدلهای هوش مصنوعی دیگر برای ارزیابی عملکرد یک مدل استفاده میکند، در حالی که MATH مجموعهای از مسائل کلمه است. اما مدل کامل نیست برخی از مفسران X خاطرنشان کردند که DeepSeek-R1 با مشکلات tic-tac-toe و سایر مشکلات منطقی دست و پنجه نرم می کند (همانطور که o1 دارد).
همچنین میتوان DeepSeek را به راحتی جیلبریک کرد – یعنی به گونهای از آن خواسته شود که محافظها را نادیده بگیرد. یکی از کاربران X این مدل را برای ارائه یک دستور العمل دقیق متم دریافت کرد.
و به نظر می رسد که DeepSeek-R1 درخواست هایی را که از نظر سیاسی بسیار حساس تلقی می شوند مسدود می کند. در آزمایش ما، این مدل از پاسخ دادن به سؤالات در مورد رهبر چین شی جین پینگ، میدان تیان آن من و پیامدهای ژئوپلیتیکی حمله چین به تایوان خودداری کرد.
این رفتار احتمالاً نتیجه فشار دولت چین بر پروژه های هوش مصنوعی در منطقه است. مدلها در چین باید توسط تنظیمکننده اینترنت چین مورد ارزیابی قرار گیرند تا اطمینان حاصل شود که پاسخهای آنها «مجسم ارزشهای سوسیالیستی اصلی» است. طبق گزارشها، دولت تا آنجا پیش رفته است که فهرست سیاهی از منابعی را پیشنهاد میکند که نمیتوان از آنها برای آموزش مدلها استفاده کرد – نتیجه این است که بسیاری از سیستمهای هوش مصنوعی چینی از پاسخگویی به موضوعاتی که ممکن است خشم تنظیمکنندهها را برانگیزد، خودداری کنند.
توجه فزاینده به مدلهای استدلال زمانی صورت میگیرد که قابلیت «قوانین مقیاسبندی»، نظریههای قدیمی مبنی بر اینکه پرتاب دادهها و قدرت محاسباتی بیشتر به یک مدل به طور مداوم قابلیتهای آن را افزایش میدهد، مورد بررسی قرار میگیرند. انبوهی از گزارشهای مطبوعاتی حاکی از آن است که مدلهای آزمایشگاههای بزرگ هوش مصنوعی از جمله OpenAI، Google و Anthropic بهاندازه گذشته به طور چشمگیری بهبود نمییابند.
این به تقلا برای رویکردهای جدید هوش مصنوعی، معماری ها و تکنیک های توسعه منجر شده است. یکی از آنها محاسبه زمان تست است که زیربنای مدل هایی مانند o1 و DeepSeek-R1 است. محاسبه زمان تست که به عنوان محاسبه استنتاج نیز شناخته میشود، اساساً به مدلها زمان پردازش اضافی برای تکمیل وظایف میدهد.
ساتیا نادلا، مدیر عامل مایکروسافت، این هفته در جریان یک سخنرانی اصلی در کنفرانس Ignite مایکروسافت، با اشاره به محاسبه زمان تست، گفت: “ما شاهد ظهور یک قانون مقیاس بندی جدید هستیم.”
DeepSeek که می گوید قصد دارد DeepSeek-R1 را منبع باز کند و یک API منتشر کند، یک عملیات عجیب است. توسط High-Flyer Capital Management، یک صندوق تامینی کمی چینی که از هوش مصنوعی برای اطلاع رسانی تصمیمات تجاری خود استفاده می کند، پشتیبانی می شود.
یکی از اولین مدلهای DeepSeek، یک مدل همهمنظوره تحلیل متن و تصویر به نام DeepSeek-V2، رقبایی مانند ByteDance، Baidu و Alibaba را مجبور کرد تا قیمتهای استفاده را برای برخی از مدلهای خود کاهش دهند – و بقیه را کاملاً رایگان کنند.
High-Flyer خوشههای سرور خود را برای آموزش مدل میسازد که طبق گزارشها، جدیدترین آنها دارای 10000 پردازنده گرافیکی Nvidia A100 است و هزینه آن 1 میلیارد ین (حدود 138 میلیون دلار) است. High-Flyer که توسط لیانگ ونفنگ، فارغ التحصیل علوم کامپیوتر تأسیس شده است، قصد دارد از طریق سازمان DeepSeek خود به هوش مصنوعی «فوق هوشمند» دست یابد.
TechCrunch یک خبرنامه متمرکز بر هوش مصنوعی دارد! برای دریافت آن در صندوق پستی خود هر چهارشنبه اینجا ثبت نام کنید.
منبع: techcrunch