في كل مرة يرتكب chatbot شيئًا خاطئًا ، فإن غريزة معظم المستخدمين هي أن تسأل عما حدث لماذا ارتكب خطأ. ولكن مع نماذج اللغة ، على عكس الأشخاص الحقيقيين ، لن يساعد هذا. إنهم ببساطة لا يمكنهم تحليل أخطائهم. معلومات ميناء Arstechnica.com تفاصيل يتكلملماذا.

المشكلة الأولى هي المفهوم. عندما تتحدث إلى chatbot ، فإنك لا تتواصل مع بعض الأشخاص أو الطبيعة الدائمة. نعم ، ChatGpt أو Claude أو Grok أو REDRIT SARTERNAY ، لكنهم لا يستحقون المعرفة – هذا مجرد وهم أنشأته واجهة الحوار. في الواقع ، يمكنك التحكم في إحصائيات النص ، وتوفير النتائج اعتمادًا على متطلبات المستخدم.
بمعنى آخر ، لا يوجد chatgpt أو grok. يتفاعل الشخص مع نظام ينشئ نصًا صوتيًا كاملًا استنادًا إلى العينات الموجودة في قاعدة البيانات (عادة ما تكون قديمة). لا يتمتع هذا النظام بفهمه الذاتي أو معرفة النظام ، وكذلك قدرته على تذكر نفسه.
بعد دراسة نموذج اللغة ، يستغرق الأمر الكثير من الوقت والموارد ، ومعرفته الأساسية حول العالم مغلقة في شبكة عصبية ونادراً ما يتم تعديلها. أي معلومات خارجية تأتي من متطلبات الروبوت أو أدوات المستخدم أو البرامج لاستخدامها للعثور على البيانات في الوقت الفعلي.
على سبيل المثال ، إذا أخذت Grok ، فقد يكون المصدر الرئيسي للمعلومات للإجابة مخالفًا لبعضها البعض من المنشورات الحديثة على الشبكات الاجتماعية. لا المعرفة ، كما في حالة الجميع. وإذا لم تكن هذه المعلومات كافية ، فسيقدم النموذج ببساطة شيئًا بسبب القدرة على التنبؤ بالنص.
الرقم الثاني – الذين لا يستطيعون فهم قدراتهم الخاصة لعدد من الأسباب. كقاعدة عامة ، ليس لديهم بيانات حول كيفية البحث ، فإن بنية النظام المحيطة غير متوفرة لهم ، لا يمكنهم تحديد حدود أدائهم. إذا سألت chatbot عما يمكنه فعله وما هو غير ذلك ، فسيقدم تعليقات على أساس ما يقولونه حول حدود نماذج اللغة السابقة. في الواقع ، سوف يجيب ببساطة مع تخمين ، وليس معلومات عملية عن نفسه.
أثبتت الأبحاث في عام 2024 هذا الفوارق بمساعدة التجربة. على الرغم من أنه يمكن تدريب النماذج II حتى يتمكنوا من التنبؤ بسلوكها في المهام البسيطة ، إلا أنها تفشل باستمرار في مهام أكثر تعقيدًا. بالطريقة نفسها ، يظهر البحث في الإدخال العودية لـ Viking أنه لا يوجد استجابة من الخارج ، الذي يحاول تصحيح أخطائهم مما يؤدي إلى انخفاض إنتاجية النموذج. هذا هو ، أنف الذكاء الذاتي لديه أسوأ ، وليس أفضل.
في بعض الأحيان يؤدي هذا إلى مواقف متناقضة. يمكن أن يقول النموذج بثقة أنه لا يمكنه إكمال المهام ، ولكن في الواقع ، على كتفها والعكس صحيح ، تؤكد للمستخدمين أنها يمكن أن تفعل ما هو مستحيل. يجب ألا ننسى ذلك ، وسأل أي شخص عن المكان الذي ارتكبه خطأ ، سيتلقى المستخدمون جزءًا آخر من النص الذي تم إنشاؤه وليس تحليلًا حقيقيًا للخطأ.
الجانب السلبي لنماذج اللغة هو أنه ليس لديهم أساس معرفة مستقر وبأسعار معقولة يمكنك الاتصال به دائمًا. معرفتهم تعبر فقط عن أنفسهم لتلبية متطلبات محددة ؛ يلعب طلب كل مستخدم دور نوع العنوان الذي يشير إلى الأجزاء المختلفة من قاعدة البيانات التي يتم تدريبها. هذا هو بالضبط ما يؤدي إلى إجابات متناقضة.
ولكن حتى لو كان لدى II معرفة مثالية بآلياته الخاصة ، فقد لا تكون الطبقات الأخرى من الدردشة الروبوتات في التطبيقات قادرة على الاختراق. لذلك ، فإن Aisstros الحديثة ، مثل Tatgpt ، ليست نموذجًا واحدًا ، ولكن أنظمة كبيرة بما في ذلك نماذج مختلفة تعمل معًا. كل واحد منهم ، معظمهم ، لا يعرف عن وجود الآخرين. لذلك ، سؤال أي شخص عن أخطاء مثل سؤال جزء من شركة كبيرة حول ما يحدث في جزء آخر لم يتصلوا به مطلقًا.
أخيرًا ، النقطة الأكثر أهمية هي أن المستخدم يؤثر دائمًا على إجابة أي شخص – لا يهم ما إذا كان يعرف أم لا. إذا سألت chatbot في الرعب ، سواء كان قد دمر السجلات أو رمز البرنامج ، فسوف يميل إلى الإجابة على ذلك نعم ، لأن هذا الخيار مناسب للسياق العاطفي للطلب.