gpt5

فهرست مطالب

در دنیایی که هوش مصنوعی هر روز مرزهای جدیدی را جابجا می‌کند، انتظارات از جانشین GPT-4o به اوج خود رسیده بود. سم آلتمن، مدیرعامل OpenAI، با وعده‌ی «هوشی در سطح دکترا»، هیجان را دوچندان کرده بود. اما کاربران با مدلی روبرو شدند که فکر می‌کند نام ایالت اورگن «وانگان» است و جو بایدن هنوز رئیس‌جمهور است. عرضه GPT-5، که قرار بود نقطه عطفی در تاریخ هوش مصنوعی مولد باشد، با موجی از ناامیدی و تمسخر همراه شد و بحث‌های قدیمی در مورد به بن‌بست رسیدن استراتژی «مقیاس‌پذیری» را دوباره زنده کرد.

وعده‌های بزرگ و خطاهای عجیب GPT-5

واکنش‌ها به عملکرد GPT-5 سریع و بی‌رحمانه بود. شبکه‌های اجتماعی مملو از اسکرین‌شات‌هایی از خطاهای عجیب این مدل شد:

  • خطاهای جغرافیایی: نقشه‌هایی که اوکلاهما را «گلاهبرین» می‌نامیدند.
  • اشتباهات ریاضی: مسائل ساده‌ای مانند “5.9 = x + 5.11” به اشتباه حل می‌شد.
  • اطلاعات تاریخی نادرست: جدول‌های زمانی که رئیس‌جمهورهای خیالی مانند «ویلیان اچ. بروسن» را معرفی می‌کردند.

این سطح از خطا برای مدلی که قرار بود هوشمندترین ساخته‌ی OpenAI تا به امروز باشد، یک شکست بزرگ محسوب می‌شد. این اشتباهات بنیادین، که نمونه بارز مشکل «توهم» (Hallucination) در مدل‌های زبانی است، این سوال را مطرح کرد که آیا بزرگ‌تر کردن مدل‌ها لزوماً به هوشمندتر شدن آن‌ها منجر نمی‌شود؟

مطالعه بیشتر: تشدید توهم هوش مصنوعی در مدل‌های زبانی جدیدتر

آیا همه‌چیز منفی بود؟ نگاهی به نکات مثبت

با وجود انتقادات گسترده، تمام بازخوردها منفی نبود. OpenAI گزارش داد که ترافیک API این شرکت در ۲۴ ساعت اول پس از عرضه دو برابر شده است، که نشان از علاقه شدید توسعه‌دهندگان به آزمودن قابلیت‌های جدید دارد. برخی از کاربران اولیه نیز توانایی‌های برنامه نویسی با هوش مصنوعی و خروجی‌های خلاقانه GPT-5 را ستایش کردند. برای مثال، آرون لوی، مدیرعامل شرکت Box، به بهبودهای چشمگیر آن در استخراج داده از اسناد پیچیده حقوقی اشاره کرد. همچنین، پروفسور ایتن مولیک از دانشگاه وارتون، توانایی این هوش مصنوعی در پیش‌بینی نیازهای کاربر و ارائه نتایج جامع را تحسین نمود.

واکنش OpenAI و عذرخواهی سام آلتمن

با این حال، نظرات مثبت تحت‌الشعاع قضاوت بی‌رحمانه بازار قرار گرفت. در پلتفرم پیش‌بینی Polymarket، شانس OpenAI برای داشتن بهترین مدل هوش مصنوعی تا پایان ماه، در عرض یک ساعت از ۷۵٪ به ۱۴٪ سقوط کرد.

سام آلتمن، مدیرعامل OpenAI، به‌سرعت برای کنترل اوضاع وارد عمل شد. او در یک پست در Reddit ضمن عذرخواهی از کاربران، قول داد که دسترسی به نسخه قبلی یعنی GPT-4o را بازگرداند. آلتمن اعتراف کرد که یک «سوییچر خودکار» معیوب بین حالت‌های مختلف GPT-5 باعث شده بود که مدل «بسیار احمقانه‌تر» از آنچه واقعاً هست به نظر برسد. این عذرخواهی یک عقب‌نشینی بزرگ برای مدیری بود که تنها ۲۴ ساعت قبل، جدیدترین ساخته خود را «مدلی با هوش عمومی» توصیف کرده بود.

GPT 5

آیا دوران مقیاس‌پذیری هوش مصنوعی به پایان رسیده است؟

این شکست بزرگ این پرسش اساسی را مطرح می‌کند: آیا استراتژی اصلی صنعت هوش مصنوعی، یعنی ساخت مدل‌های بزرگ‌تر و بزرگ‌تر، به بن‌بست رسیده است؟ منتقدان مدت‌هاست استدلال می‌کنند که صرفاً بزرگ‌تر کردن مدل‌ها به هوش مصنوعی عمومی (AGI) منجر نخواهد شد و به نظر می‌رسد لغزش‌های GPT-5 این نگرانی‌ها را تأیید می‌کند.

گری مارکوس، محقق هوش مصنوعی و از منتقدان قدیمی این رویکرد، نوشت: «کار من در اینجا واقعاً تمام شده است. هیچ‌کس با صداقت فکری دیگر نمی‌تواند باور کند که مقیاس‌پذیری محض ما را به AGI خواهد رساند.» این اتفاق نشان داد که شاید مسیر رسیدن به هوش واقعی، پیچیده‌تر از افزودن پارامترها و داده‌های بیشتر باشد.

رقبا از فرصت استفاده می‌کنند

زمان‌بندی این عرضه ناموفق برای OpenAI نمی‌توانست بدتر از این باشد. این اتفاق فضا را برای رقبایی که به سرعت در حال پیشرفت هستند، باز کرد:

  • Alibaba: از مدل Qwen 3 خود با کانتکست یک میلیون توکنی رونمایی کرد که تقریباً چهار برابر ظرفیت GPT-5 است.
  • Anthropic: مدل Claude 4 در بنچمارک‌های کدنویسی پا به پای بهترین‌ها پیش می‌رود.
  • Google: مدل Gemini پس از یک شروع دیرهنگام، با قدرت در حال افزایش سهم خود از بازار است.

آنچه قرار بود سلطه OpenAI را تثبیت کند، در عمل به هدیه‌ای برای رقبایش تبدیل شد. این در شرایطی رخ می‌دهد که OpenAI به‌تازگی با ارزش‌گذاری ۳۰۰ میلیارد دلاری، ۸.۳ میلیارد دلار سرمایه جذب کرده و هزینه‌های سنگینی برای محاسبات پرداخت می‌کند. هر گام اشتباه می‌تواند هزینه‌های گزافی به همراه داشته باشد. OpenAI قصد دارد در هفته‌های آینده ویژگی‌های جدیدی مانند یکپارچه‌سازی با Gmail و Google Calendar را عرضه کند، اما برای مدلی که از اواخر سال ۲۰۲۳ در حال توسعه بوده، این بازخورد اولیه احتمالاً یک زنگ خطر جدی بوده است. اعتمادبه‌نفس سم آلتمن در ژانویه که گفته بود «ما اکنون می‌دانیم چگونه AGI بسازیم»، با توجه به عملکرد مدلی که حتی نمی‌تواند نقشه اورگن را درست تشخیص دهد، بسیار خوش‌بینانه به نظر می‌رسد.

منبع: qz

آخرین مطالب