از جدیدترین سری برای مدل های هوش مصنوعی ورژن OpenAI o1 منتشر شده است که تیم دکترگرافیک این بروزرسانی را در قالب خبری برای شما عزیزان بررسی کرده است.
معرفی OpenAI o1
یک سری جدید از مدلهای هوش مصنوعی طراحی شده که برای گذراندن زمان بیشتری برای فکر کردن قبل از پاسخگویی طراحی شدهاند. آنها می توانند از طریق کارهای پیچیده استدلال کنند و مسائل سخت تری را نسبت به مدل های قبلی در علوم، کدنویسی و ریاضی حل کنند.
امروز، اولین مورد از این سری را در ChatGPT و API خود منتشر شده است که یک پیشنمایش است و انتظار داریم بهروزرسانیها و بهبودهای منظم انجام شود. در کنار این نسخه، همچنین ارزیابی هایی را برای به روز رسانی بعدی که در حال حاضر در حال توسعه هستند، در نظر می گیریم.
o1 چگونه کار می کند
ما به این مدلها آموزش دادیم تا زمان بیشتری را صرف فکر کردن درباره مشکلات قبل از پاسخگویی کنند، درست مانند یک فرد. از طریق آموزش، آنها یاد می گیرند که فرآیند تفکر خود را اصلاح کنند، استراتژی های مختلف را امتحان کنند و اشتباهات خود را تشخیص دهند.
بهروزرسانی مدل بعدی مشابه دانشجویان دکترا در مورد وظایف معیار چالشبرانگیز در فیزیک، شیمی و زیستشناسی عمل میکند. ما همچنین دریافتیم که در ریاضیات و کدنویسی برتر است. در یک امتحان مقدماتی برای المپیاد بین المللی ریاضیات (IMO)، GPT-4o تنها 13 درصد از مسائل را به درستی حل کرد، در حالی که مدل استدلال 83 درصد را به دست آورد. توانایی کدنویسی آنها در مسابقات مورد ارزیابی قرار گرفت و در مسابقات Codeforces به صدک 89 رسید. شما می توانید در مورد این موضوع در پست تحقیقات فنی ما بیشتر بخوانید.
به عنوان یک مدل اولیه، هنوز بسیاری از ویژگیهای مفید ChatGPT را ندارد، مانند مرور وب برای اطلاعات و آپلود فایلها و تصاویر. برای بسیاری از موارد رایج GPT-4o در کوتاه مدت توانمندتر خواهد بود.
اما برای وظایف استدلالی پیچیده، این یک پیشرفت قابل توجه است و سطح جدیدی از قابلیت هوش مصنوعی را نشان می دهد. با توجه به این موضوع، ما شمارنده را به ۱ باز میگردانیم و نام این سری را OpenAI o1 میگذاریم.
ایمنی
به عنوان بخشی از توسعه این مدلهای جدید، رویکرد آموزشی ایمنی جدیدی ارائه شده است که از قابلیتهای استدلالی آنها استفاده میکند تا آنها را به دستورالعملهای ایمنی و همترازی پایبند کند. با توانایی استدلال در مورد قوانین ایمنی در زمینه، می تواند آنها را به طور مؤثرتری اعمال کند.
یکی از راههایی که ما ایمنی را اندازهگیری میکنیم این است که آزمایش کنیم اگر کاربر سعی کند قوانین ایمنی خود را دور بزند (معروف به “جیل بریک”) مدل ما چقدر به پیروی از قوانین ایمنی خود ادامه میدهد. در یکی از سختترین تستهای جیلبریک ما، GPT-4o امتیاز 22 (در مقیاس 0-100) را کسب کرد در حالی که مدل o1-preview ما امتیاز 84 را کسب کرد.
برای مطابقت با قابلیتهای جدید این مدلها، کار ایمنی، حکومتداری داخلی و همکاری دولت فدرال را تقویت کردهایم. این شامل آزمایشها و ارزیابیهای دقیق با استفاده از چارچوب آمادگی ما (در پنجرهای جدید باز میشود)، بهترین تیمبندی قرمز در کلاس، و فرآیندهای بررسی در سطح هیئت مدیره، از جمله توسط کمیته ایمنی و امنیت ما است.
برای پیشبرد تعهد خود به ایمنی هوش مصنوعی، اخیراً قراردادهایی را با مؤسسات ایمنی هوش مصنوعی ایالات متحده و بریتانیا رسمی شده است. عملیاتی کردن این قراردادها را آغاز شده است، از جمله اعطای دسترسی زودهنگام به مؤسسات به نسخه تحقیقاتی این مدل. این اولین قدم مهم در مشارکت بود که به ایجاد فرآیندی برای تحقیق، ارزیابی و آزمایش مدلهای آینده قبل و بعد از انتشار عمومی آنها کمک کرد.
o1 برای چه کسانی مفید خواهد بود؟
این قابلیتهای استدلالی تقویتشده ممکن است به ویژه در صورتی مفید باشد که در حال مقابله با مسائل پیچیده در علوم، کدنویسی، ریاضیات و زمینههای مشابه هستید. به عنوان مثال، o1 می تواند توسط محققان مراقبت های بهداشتی برای حاشیه نویسی داده های توالی سلولی، توسط فیزیکدانان برای تولید فرمول های ریاضی پیچیده مورد نیاز برای اپتیک کوانتومی، و توسط توسعه دهندگان در همه زمینه ها برای ساخت و اجرای گردش های کاری چند مرحله ای استفاده شود.
جمعبندی:
هدف این شرکت، کار و تلاش در جهت ایجاد هوش مصنوعی عمومی (Artificial General Intelligence) است. این هوش مصنوعی به نفع بشریت ایمن بوده و همکاری آزادانه و رایگانی با سازمانهای تحقیقاتی و افراد دارد.
منابع : openai