تیمی در اوپن‌ای‌آی ابزارهای کنترل هوش‌مصنوعی ابرانسان ساختند!

مقاله تحقیقاتی جدید از اوپن‌ای‌آی که پنجشنبه منتشر شده است می‌گوید که یک هوش‌مصنوعی فوق بشری در راه است و این شرکت در حال توسعه ابزارهایی است تا اطمینان حاصل کند که این هوش‌مصنوعی علیه انسان‌ها نمی‌شود! ایلیا ساتسکور، دانشمند ارشد اوپن‌ای‌آی، به عنوان نویسنده اصلی در مقاله ذکر شده است، اما نه پست وبلاگی که همراه آن بود، و نقش او در این پروژه همچنان نامشخص است.

اوپن‌ای‌آی در یک پست وبلاگی گفته که معتقد است ابر‌هوش یا همان هوش‌مصنوعی بسیار هوشمندتر از انسان، می‌تواند در ده سال آینده توسعه یابد. پی بردن به اینکه چگونه می‌توان سیستم‌های هوش‌مصنوعی فوق بشری آینده را ایمن کرد، هرگز مهم‌تر از اکنون نبوده است، اما در حال حاضر می‌توان پیشرفت تجربی در این پروژه آسان‌تر از همیشه است.

«تعمیم ضعیف به قوی» اولین مقاله از تیم «Superalignment» ایلیا سوتسکور و یان لیک است که در ماه جولای برای اطمینان از اینکه سیستم‌های هوش مصنوعی بسیار باهوش‌تر از انسان‌ها همچنان از قوانین انسانی پیروی می‌کنند، ایجاد شد. راه حل پیشنهادی؟ اوپن‌ای‌آی نیاز به طراحی مدل‌های کوچک هوش مصنوعی برای آموزش مدل‌های هوش مصنوعی فوق‌انسانی دارد.

در حال حاضر، اوپن‌ای‌آی از انسان‌ها برای «همسو کردن» چت‌جی‌پی‌تی با دادن بازخورد خوب یا بازخورد منفی استفاده می‌کند. به این ترتیب اوپن‌ای‌آی تضمین می‌کند که چت‌جی‌پی‌تی دستورالعمل‌هایی درباره نحوه ساخت بمب ناپالم در خانه یا سایر نتایج خطرناک به مردم نمی‌دهد. با این حال، همانطور که چت‌جی‌پی‌تی هوشمندتر می‌شود، اوپن‌ای‌آی اذعان می‌کند که انسان‌ها برای آموزش این مدل‌ها کافی نخواهند بود، بنابراین باید یک هوش‌مصنوعی پیچیده‌تر را آموزش دهیم تا این کار را از طرف ما انجام دهد.

این اولین نشانه وجود ایلیا ساتسکور در اوپن‌ای‌آی است، اما از زمانی که سم آلتمن اعلام کرد تقریباً همه به اوپن‌ای‌آی بازگشته‌اند در حالی که وضعیت ساتسکور در هوا باقی مانده است. ساتسکور، یکی از بنیانگذاران اوپن‌ای‌آی، یکی از اعضای هیئت مدیره زمان اخراج آلتمن بود. در حال حاضر او دیگر جزو هیئت مدیره شرکت نیست، اما ممکن است هنوز نقشی در پروژه‌ها داشته باشد.

منابع به Businessinside.com گفته‌اند که او در چند هفته گذشته در شرکت نامرئی بوده و وکیل استخدام کرده است. جان لیک و سایر اعضای تیم Superalignment اوپن‌ای‌آی در این مقاله مهم اظهارات عمومی کردند، اما ساتسکور یک کلمه هم نگفته است و فقط ریتوییت می‌کند.

این مطالعه نشان داد که آموزش مدل‌های هوش مصنوعی بزرگ با مدل‌های هوش‌مصنوعی کوچک‌تر، چیزی که آن‌ها «تعمیم ضعیف به قوی» می‌نامند، در مقایسه با آموزش انسانی، در شرایط مختلف دقت بالاتری را به همراه دارد. بیشتر مطالعه از GPT-2 برای آموزش GPT-4 استفاده کرد. توجه به این نکته مهم است که اوپن‌ای‌آی می‌گوید متقاعد نشده است که این یک راه‌حل برای همسویی بهتر است، بلکه این فقط یک چارچوب امیدوارکننده برای آموزش یک هوش مصنوعی فوق‌انسانی است.

محققان اوپن‌ای‌آی در این مطالعه گفتند: «مدل‌های مافوق بشری فوق‌العاده قدرتمند خواهند بود و در صورت استفاده نادرست یا ناهماهنگی با ارزش‌های انسانی، می‌توانند به طور بالقوه آسیب فاجعه‌باری ایجاد کنند.» ما معتقدیم که اکنون پیشرفت در این پروژه آسانتر از همیشه است.»

حدس و گمان قابل توجهی وجود داشت مبنی بر اینکه اوپن‌ای‌آی در ماه نوامبر به AGI نزدیک شده بود، اگرچه بسیاری از آن بی‌نتیجه بودند. این مقاله تأیید می‌کند که اوپن‌ای‌آی به طور فعال در حال ساخت ابزارهایی برای کنترل یک AGI است، اما وجود یک AGI را تأیید نمی کند. در مورد ایلیا سوتسکور، وضعیت او در برزخ عجیبی باقی مانده است. اوپن‌ای‌آی موقعیت خود را در این شرکت تایید نکرده است، اما تیم او بی سر و صدا تحقیقات پیشگامانه‌ای را در حالی که او اعلامیه‌های شرکت خود را ریتوییت می‌کند، پیش برده است.

 

بیشتر بخوانید:


‌ on تیمی در اوپن‌ای‌آی ابزارهای کنترل هوش‌مصنوعی ابرانسان ساختند!

ارسال دیدگاه