سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى - اعرف كورة

صدى البلد 0 تعليق ارسل طباعة تبليغ

حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرا إلى أن النموذج، رغم قوّه، لا يزال عرضة للأخطاء ويجب التعامل معه بحذر.

جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن اندهاشه من حجم الثقة التي يمنحها المستخدمون لـChatGPT، رغم علمهم بمحدوديته.

وقال ألتمان: "من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ "الهلوسة"ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرا".

تحذير واضح رغم الشعبية الواسعة

أثار هذا التصريح جدلا في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة، مثل الكتابة، البحث، تقديم النصائح التربوية، وغيرها.

وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة.

وأوضح أن ChatGPT لا "يفهم" العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادا إلى البيانات التي تم تدريبه عليها، ما يجعله أحيانا يقدم معلومات مغلوطة أو مختلقة تماما وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم "الهلوسة".

وقال ألتمان بصراحة: "النموذج ليس موثوقا تماما.. ويجب أن نكون صادقين بشأن ذلك".

مخاطر الاعتماد المفرط

ورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عندما يتم التعامل مع إجاباته وكأنها حقائق مؤكدة.

وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء.

كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة، وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها في الوقت نفسه تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات.

"ثق.. ولكن تحقق"

تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي.

فقد عبر جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: "رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي".

وأوضح هينتون ذلك من خلال اختبار بسيط: "سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟"، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو "واحدة" سالي نفسها.

وعلق هينتون: "ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه"، مضيفا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء.

في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.

إخترنا لك

أخبار ذات صلة

0 تعليق