زمانی که یک گفتگوی جدید را با ChatGPT شروع میکنید، متنی در پایین صفحه نمایش داده میشود که در آن نوشته شده «ChatGPT ممکن است اشتباه کند. اطلاعات مهم را بررسی کنید.» این هشدار حتی در نسخه جدید مدل، یعنی GPT-5 هم وجود دارد و اکنون یکی از مدیران ارشد OpenAI دوباره بر آن تأکید کرده است.
نیک تورلی»، رئیس بخش ChatGPT در OpenAI، در پادکست Decoder وبسایت The Verge گفت: «موضوعی که درباره قابلاعتماد بودن وجود دارد این است که فاصله زیادی بین دو حالت «خیلی قابلاعتماد» و «صددرصد قابلاعتماد» وجود دارد. تا زمانی که ثابت نکنیم از یک متخصص انسانی در همه حوزهها قابلاعتمادتر هستیم، همچنان به کاربران توصیه میکنیم پاسخها را دوباره بررسی کنند.»
او در ادامه صحبتهای خود گفت که مردم باید به ChatGPT نه بهعنوان منبع اصلی حقیقت، بلکه بیشتر بهعنوان نظر دوم نگاه کنند. تورلی همچنین هشدار داده که ابزارهای هوش مصنوعی مولد مثل ChatGPT ممکن است دچار «توهم» شوند و اطلاعاتی نمایش دهند که واقعیت ندارند. دلیلش آن است که مدلها برای پیشبینی محتملترین پاسخ طراحی شدهاند و هدف اصلی آنها درک حقیقت نیست.
به گفته او، این ابزار زمانی بهترین عملکرد را دارد که در کنار منابع معتبر مانند موتورهای جستجو یا دادههای اختصاصی یک شرکت استفاده شود: «هنوز هم باور دارم که بهترین محصول مدل زبانی بزرگی است که به واقعیت متصل باشد. بههمین دلیل جستجو را به ChatGPT اضافه کردیم و فکر میکنم این قابلیت تفاوت بزرگی ایجاد کرده است.»
تورلی همچنین تأکید کرده که GPT-5 در کاهش خطاها نسبت به گذشته پیشرفت بزرگی داشته است، اما هنوز با ایدهآل فاصله دارد. او در این رابطه گفت: «مطمئنم در نهایت مشکل توهم را حل میکنیم، اما قطعاً نه در فصل آینده.»
با اشاره به تمام این موارد، او توصیه کرده که کاربران همیشه اطلاعات دریافتشده از ChatGPT یا هر چتبات دیگری را با منابع معتبر یا نظر کارشناسان مقایسه کنند، حتی اگر پاسخ همراه با لینک ارائه شده باشد.
خبر آنلاین