ChatGPT‏.. هل هو روبوت محادثة ذكى كالبشر أم غبى؟

السبت، 18 فبراير 2023 06:00 م
ChatGPT‏.. هل هو روبوت محادثة ذكى كالبشر أم غبى؟ شات جى بى تى
وكالات

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
بعد أيام قليلة من إعلان ‏Google‏ و‏Microsoft‏ أنهما سيقدمان محركات بحث تم ‏إنشاؤها بواسطة تقنيات روبوتية تعتمد على برمجيات ذكاء اصطناعي قادرة على ‏إنتاج نصوص تحاكي ما يصنعه البشر، شعر الكثيرون بالقلق من أن المساعد ‏الصوتي المدعوم بالذكاء الاصطناعي والمتاحة بالمنازل لدينا لا يمكن الوثوق بهم. ‏
 
بصفة عامة، حذر باحثو الذكاء الاصطناعي في ‏Google‏ الشركة من أن روبوتات ‏الدردشة ستكون "ببغاوات عشوائية" (من المحتمل أن تصرخ على أشياء خاطئة أو ‏غبية أو مسيئة) و"عرضة للهلوسة" (من شأنها اختلاق الأشياء فقط ). ‏
 
وكتب فريق من ‏DeepMind، شركة الذكاء الاصطناعي المملوكة لشركة ‏Alphabet، العام الماضي في عرض تقديمي عن المخاطر المحتملة: "روبوتات ‏المحادثة هذه ليست ذكية في الواقع .. إنهم أغبياء يكذبون".
 
ولم يستغرق الأمر وقتًا طويلاً حتى تثبت روبوتات المحادثة هذه النقطة، فقد أظهر ‏إعلان الأسبوع الماضي لروبوت ‏Google‏ الذي أطلقت عليه اسم ‏Bard، إجابات ‏فاشلة. في غضون ذلك، فشلت الإجابات التي قدمها روبوت ‏Bing، سيدني، في ‏الوقوف حتى أمام عمليات التحقق من المعلومات الأولية والبدائية.‏
 
يرى محللوم أن روبوتات الدردشة هي محركات هراء مصممة لتقول الأشياء بيقين ‏لا جدال فيه ونقص كامل في الخبرة، فلماذا نشتري هراءهم؟ ‏
 
بصراحة، لا أحد يعرف حقًا سبب تصديق أي شخص لأي شيء. بعد آلاف السنين ‏من النقاش، لم يتفق الفلاسفة وعلماء النفس وعلماء الأعصاب الرائدون في العالم ‏حتى على آلية لسبب تصديق الناس للأشياء، أو حتى ماهية المعتقدات. لذلك من ‏الصعب معرفة كيفية عملها، أو لماذا يكون أحد الأشياء أكثر تصديقًا من الآخر. ‏لكن هناك بعض التكهنات حول سبب سقوطنا في غرام تطبيق ‏ChatGPT‏: مثلاً ‏نحن البشر نحب شخصًا أنيقًا يتمتع بأوراق اعتماد تبدو مثيرة للإعجاب، وهذا ما ‏تبديه تلك التطبيقات، بل مع مرور الوقت، ستصبح الروبوتات أكثر تعقيداً في ‏خداعنا.‏

أرقام رئيسة

على مدار العقدين الماضيين، كان هناك الكثير من الأبحاث حول سبب اعتقاد ‏الناس بالمعلومات الخاطئة. افترض الكثيرون أننا سنواجه في الغالب خيالًا يتظاهر ‏بأنه حقيقة في شكل دعاية أو وسائل التواصل الاجتماعي. لكن هذا على وشك ‏التغيير. سيتم الآن تضمين المعلومات المضللة في محركات البحث التي نستخدمها. ‏
 
الآن، ليست كل المعتقدات معتمدة بقوة ، أو حتى مبنية على الأدلة، لذلك ربما ‏سيتعامل الأشخاص مع إجابات روبوتات الدردشة بالطريقة التي نتعامل بها مع أي ‏معلومات جديدة. ‏
 
يقول جو فيتريول، عالم السياسة في جامعة ليهاي الذي يدرس المعلومات المضللة، ‏إنه يتوقع تصديق الناس لروبوت الدردشة إذا أخبرهم بأشياء تتوافق مع معتقداتهم ‏وآرائهم الحالية - تمامًا كما يفعلون مع نتائج ‏Google‏ التقليدية. وما إذا كان ‏روبوت المحادثة يقول الحقيقة أو هلوسات لن يهم حقًا.‏
 
وتكمن المشكلة في أننا لا نعرف حقًا ما الذي يجعل الناس يقعون تحت تأثير تفسير ‏على آخر. تشير بعض الأبحاث إلى أن التفسيرات التي تتمتع بأكبر قدر من القوة ‏هي تلك التي تكون أبسط وأكثر قابلية للتطبيق على نطاق واسع. ‏
 
قبل أيام قليلة فقط من إعلان كل من ‏Google‏ و ‏Microsoft‏ عن رحلتهما ‏الوشيكة لتطوير تلك الروبوتات، نشر فريق من علماء الاجتماع في جامعة ‏ستانفورد طبعة أولية رائعة. لقد عرضوا على آلاف الأشخاص مقالات قصيرة ‏مقنعة حول الموضوعات الساخنة مثل حظر الأسلحة الهجومية وضرائب الكربون. ‏تمت كتابة بعض الإصدارات بواسطة ‏chatbot GPT-3‎، وأخرى بواسطة ‏الإنسان. ثم قام العلماء بقياس مدى تغيير الناس لآرائهم بناءً على المقالات.‏
 
اتضح أن الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت مقنعة تمامًا ‏مثل الرسائل البشرية. لكن الجزء الجامح هو السبب. عندما قام الباحثون ‏باستخلاص المعلومات من البشر، قال أولئك الذين فضلوا مقالات الشات بوت إن ‏الرسائل الحرفية من صنع الإنسان اعتمدت كثيرًا على الحكايات والصور، بينما ‏كان ‏GPT-3‎‏ أكثر استنادًا إلى الأدلة ومنطقًا جيدًا. ‏
 
كما أن الجودة ذاتها التي جعلت الروبوت أقل إنسانية جعلت البشر أكثر عرضة ‏لتصديقه. تمامًا مثل أفلام الخيال العلمي، لم تشعر روبوتات المحادثة بالشفقة أو ‏الندم أو الخوف ولم يتوقفوا على الإطلاق أبدًا حتى اقتنع البشر.‏









مشاركة

اضف تعليقاً واقرأ تعليقات القراء
لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة