در دنیایی که هوش مصنوعی هر روز مرزهای جدیدی را جابجا میکند، انتظارات از جانشین GPT-4o به اوج خود رسیده بود. سم آلتمن، مدیرعامل OpenAI، با وعدهی «هوشی در سطح دکترا»، هیجان را دوچندان کرده بود. اما کاربران با مدلی روبرو شدند که فکر میکند نام ایالت اورگن «وانگان» است و جو بایدن هنوز رئیسجمهور است. عرضه GPT-5، که قرار بود نقطه عطفی در تاریخ هوش مصنوعی مولد باشد، با موجی از ناامیدی و تمسخر همراه شد و بحثهای قدیمی در مورد به بنبست رسیدن استراتژی «مقیاسپذیری» را دوباره زنده کرد.
وعدههای بزرگ و خطاهای عجیب GPT-5
واکنشها به عملکرد GPT-5 سریع و بیرحمانه بود. شبکههای اجتماعی مملو از اسکرینشاتهایی از خطاهای عجیب این مدل شد:
- خطاهای جغرافیایی: نقشههایی که اوکلاهما را «گلاهبرین» مینامیدند.
- اشتباهات ریاضی: مسائل سادهای مانند “5.9 = x + 5.11” به اشتباه حل میشد.
- اطلاعات تاریخی نادرست: جدولهای زمانی که رئیسجمهورهای خیالی مانند «ویلیان اچ. بروسن» را معرفی میکردند.
این سطح از خطا برای مدلی که قرار بود هوشمندترین ساختهی OpenAI تا به امروز باشد، یک شکست بزرگ محسوب میشد. این اشتباهات بنیادین، که نمونه بارز مشکل «توهم» (Hallucination) در مدلهای زبانی است، این سوال را مطرح کرد که آیا بزرگتر کردن مدلها لزوماً به هوشمندتر شدن آنها منجر نمیشود؟
مطالعه بیشتر: تشدید توهم هوش مصنوعی در مدلهای زبانی جدیدتر
آیا همهچیز منفی بود؟ نگاهی به نکات مثبت
با وجود انتقادات گسترده، تمام بازخوردها منفی نبود. OpenAI گزارش داد که ترافیک API این شرکت در ۲۴ ساعت اول پس از عرضه دو برابر شده است، که نشان از علاقه شدید توسعهدهندگان به آزمودن قابلیتهای جدید دارد. برخی از کاربران اولیه نیز تواناییهای برنامه نویسی با هوش مصنوعی و خروجیهای خلاقانه GPT-5 را ستایش کردند. برای مثال، آرون لوی، مدیرعامل شرکت Box، به بهبودهای چشمگیر آن در استخراج داده از اسناد پیچیده حقوقی اشاره کرد. همچنین، پروفسور ایتن مولیک از دانشگاه وارتون، توانایی این هوش مصنوعی در پیشبینی نیازهای کاربر و ارائه نتایج جامع را تحسین نمود.
واکنش OpenAI و عذرخواهی سام آلتمن
با این حال، نظرات مثبت تحتالشعاع قضاوت بیرحمانه بازار قرار گرفت. در پلتفرم پیشبینی Polymarket، شانس OpenAI برای داشتن بهترین مدل هوش مصنوعی تا پایان ماه، در عرض یک ساعت از ۷۵٪ به ۱۴٪ سقوط کرد.
سام آلتمن، مدیرعامل OpenAI، بهسرعت برای کنترل اوضاع وارد عمل شد. او در یک پست در Reddit ضمن عذرخواهی از کاربران، قول داد که دسترسی به نسخه قبلی یعنی GPT-4o را بازگرداند. آلتمن اعتراف کرد که یک «سوییچر خودکار» معیوب بین حالتهای مختلف GPT-5 باعث شده بود که مدل «بسیار احمقانهتر» از آنچه واقعاً هست به نظر برسد. این عذرخواهی یک عقبنشینی بزرگ برای مدیری بود که تنها ۲۴ ساعت قبل، جدیدترین ساخته خود را «مدلی با هوش عمومی» توصیف کرده بود.

آیا دوران مقیاسپذیری هوش مصنوعی به پایان رسیده است؟
این شکست بزرگ این پرسش اساسی را مطرح میکند: آیا استراتژی اصلی صنعت هوش مصنوعی، یعنی ساخت مدلهای بزرگتر و بزرگتر، به بنبست رسیده است؟ منتقدان مدتهاست استدلال میکنند که صرفاً بزرگتر کردن مدلها به هوش مصنوعی عمومی (AGI) منجر نخواهد شد و به نظر میرسد لغزشهای GPT-5 این نگرانیها را تأیید میکند.
گری مارکوس، محقق هوش مصنوعی و از منتقدان قدیمی این رویکرد، نوشت: «کار من در اینجا واقعاً تمام شده است. هیچکس با صداقت فکری دیگر نمیتواند باور کند که مقیاسپذیری محض ما را به AGI خواهد رساند.» این اتفاق نشان داد که شاید مسیر رسیدن به هوش واقعی، پیچیدهتر از افزودن پارامترها و دادههای بیشتر باشد.
رقبا از فرصت استفاده میکنند
زمانبندی این عرضه ناموفق برای OpenAI نمیتوانست بدتر از این باشد. این اتفاق فضا را برای رقبایی که به سرعت در حال پیشرفت هستند، باز کرد:
- Alibaba: از مدل Qwen 3 خود با کانتکست یک میلیون توکنی رونمایی کرد که تقریباً چهار برابر ظرفیت GPT-5 است.
- Anthropic: مدل Claude 4 در بنچمارکهای کدنویسی پا به پای بهترینها پیش میرود.
- Google: مدل Gemini پس از یک شروع دیرهنگام، با قدرت در حال افزایش سهم خود از بازار است.
آنچه قرار بود سلطه OpenAI را تثبیت کند، در عمل به هدیهای برای رقبایش تبدیل شد. این در شرایطی رخ میدهد که OpenAI بهتازگی با ارزشگذاری ۳۰۰ میلیارد دلاری، ۸.۳ میلیارد دلار سرمایه جذب کرده و هزینههای سنگینی برای محاسبات پرداخت میکند. هر گام اشتباه میتواند هزینههای گزافی به همراه داشته باشد. OpenAI قصد دارد در هفتههای آینده ویژگیهای جدیدی مانند یکپارچهسازی با Gmail و Google Calendar را عرضه کند، اما برای مدلی که از اواخر سال ۲۰۲۳ در حال توسعه بوده، این بازخورد اولیه احتمالاً یک زنگ خطر جدی بوده است. اعتمادبهنفس سم آلتمن در ژانویه که گفته بود «ما اکنون میدانیم چگونه AGI بسازیم»، با توجه به عملکرد مدلی که حتی نمیتواند نقشه اورگن را درست تشخیص دهد، بسیار خوشبینانه به نظر میرسد.
منبع: qz




