دردشة "بنغ" تقدم معلومات مزيفة ومايكروسوفت تبرر
صممت مايكروسوفت "بينغ" بمساعدة تكنولوجيا الذكاء الاصطناعي من شركة "أوبن إيه آي" الناشئة في سان فرانسيسكو، بحيث ينتج فقرات ونصوصاً كاملة تُقرأ كما لو كان كتبها إنسان ، ورغم أن هذه الأدوات التي تعمل بالذكاء الاصطناعي قد تحسنت كثيراً في إنتاج ردود إبداعية وأحيانا طريفة، فإنها غالباَ ما تتضمن معلومات غير دقيقة.
فقد كشف أنه يمكن أن تقدم ميزة دردشة "بنغ" أحياناً معلومات مزيفة يعتقد المستخدمون أنها حقيقة أساسية، وهي ظاهرة يسميها الباحثون في مجال الذكاء الاصطناعي "الهلوسة".
وحسب المواقع الالكترونية ، كانت الأداة تقدم إجابات خاطئة في أثناء عرض توضيحي يتعلق بتقارير الأرباح المالية، وهي في ذلك مثلها مثل أدوات لغة الذكاء الاصطناعي الأخرى، بما في ذلك برامج "غوغل" (Google) ذات الصلة.
لكن هذه المشكلات لم تبطئ سباق الذكاء الاصطناعي بين عملاقي التكنولوجيا، فقد أعلنت غوغل الثلاثاء الماضي أنها ستستثمر تقنية الدردشة التي تعمل بالذكاء الاصطناعي في بريد "جيميل" (Gmail) ومحرّر مستندات غوغل، مما يسمح لها بالمساعدة في إنشاء رسائل البريد الإلكتروني أو المستندات.
خاطئة بشكل مفيد
لتفادي الخطأ ، سارعت شركة مايكروسوفت الخميس الماضي لإعلان أن تطبيقاتها الشهيرة مثل "وورد" (Word) و"إكسل" (Excel) ستأتي قريباً مجمعة مع تقنية شبيهة بـ"شات جي بي تي" يطلق عليها اسم "كوبايلوت" (Copilot).
لكن مايكروسوفت روجت في هذا الإعلان للتكنولوجيا باعتبارها "خاطئة بشكل مفيد"؛ ففي عرض تقديمي عبر الإنترنت عن ميزات "كوبايلوت" الجديدة، أثار المسؤولون التنفيذيون في مايكروسوفت مشكلة مَيل البرنامج إلى إنتاج ردود غير دقيقة، لكنهم اعتبروا ذلك شيئاً مفيداً خلال الإعلان.
وحسب التقرير أفاد بأنه ، ما دام المستخدم يدرك أن ردود "كوبايلوت" قد تكون غير دقيقة، مما يمكّنهم من تعديل الأخطاء وإرسال رسائل البريد الإلكتروني بسرعة أكبر أو إنهاء شرائح العرض التقديمي ، إذاً البرنامج مفيد حتى مع الأخطاء وفقاً لهم .
ومن وجهة نظر مايكروسوفت، فإن مجرد قيام الأداة بإنشاء نص يوفر على الشخص بعض الوقت، فإنه بالتالي يكون مفيداً ، على سبيل المثال، إذا أراد شخص ما إنشاء رسالة إلكترونية يتمنى فيها عيد ميلاد سعيداً لأحد أفراد الأسرة، فربما يكون برنامج "كوبايلوت" مفيداً حتى لو كان يقدم تاريخ ميلاد خاطئاً.
مخاوف التقنيين
من جانبه أعرب بعض التقنيين مثل "نوا جيانسيراكوزا وغاري ماركوس" عن مخاوفهم من أن الناس قد يضعون كثيراً من الثقة بالذكاء الاصطناعي في العصر الحديث، خصوصا أدوات الذكاء الاصطناعي التي تستخدم في الاستشارات الصحية أو المالية والتمويل وغيرها من الموضوعات عالية المخاطر.
وحسب مقال رأي كتبه مؤخراً، قال "حواجز الحماية المطبقة حاليا في شات جي بي تي يمكن تجنبها بسهولة من قبل أولئك العازمين على استخدامها من أجل الشر، وكما رأينا في وقت سابق من هذا الأسبوع، ما زالت جميع محركات البحث الجديدة في حالة هلوسة".
وأضاف المقال "لكن بمجرد أن نتجاوز توتر هذه المرحلة، ما يجب أخذه بالحسبان حقا ًهو إذا ما كان بإمكان أي من اللاعبين الكبار بناء ذكاء اصطناعي يمكننا الوثوق به حقا".
ثقة كوبايلوت
قال جايمي تيفان، كبير العلماء والزميل التقني في مايكروسوفت، إنه عندما "يخطئ كوبايلوت في الأمور أو يكون لديه تحيز أو يساء استخدامه"، فإن مايكروسوفت لديها "وسائل تخفيف". بالإضافة إلى ذلك، ستختبر مايكروسوفت البرنامج مع 20 عميلاً من الشركات فقط في البداية حتى تتمكن من توقع كيفية عمله في العالم الحقيقي، حسب ما أوضحت. وأوضح تيفان "سنرتكب أخطاء، ولكن عندما نرتكبها، سنتعامل معها بسرعة".
وتعتبر المخاطر التجارية عالية جداً بالنسبة لمايكروسوفت لتجاهل ال حماس تجاه تقنيات الذكاء الاصطناعي التوليدية مثل "شات جي بي تي". وسيكون التحدي بالنسبة للشركة هو دمج هذه التكنولوجيا بحيث تؤدي إلى تعزيز ثقة الجمهور بالبرنامج ومنع حدوث كوارث كبيرة في مجال العلاقات العامة.
وأضاف تيفان "لقد درست الذكاء الاصطناعي لعقود، وأشعر بهذا الإحساس الهائل بالمسؤولية مع هذه الأداة الجديدة القوية"، وتابع "تقع على عاتقنا مسؤولية وضع الأمر في أيدي الناس، والقيام بذلك بالطريقة الصحيحة".
ويتناقض نهج مايكروسوفت المتسرع في نشر تقنية الذكاء الاصطناعي الجديدة مع نهج شركة "غوغل" (Google)، التي طورت روبوت محادثة منافسا يسمى "بارد" (Bard)، لكنها لم تنشره للجمهور، حيث أشار مسؤولو الشركة إلى مخاطر السمعة ومخاوف السلامة مع الوضع الحالي للتكنولوجيا، كما أن تقييم الرأي العام لحد الآن لهذه التكنولوجيا سلبي، حيث يعتقد 9% فقط من الأميركيين أن الذكاء الاصطناعي سيفيدهم أكثر.
وحذر بعض خبراء الذكاء الاصطناعي من أن النماذج اللغوية الكبيرة، أو ما تعرف اختصارا بـ"إل إل إم إس" (LLMs)، لديها مشكلات بما في ذلك "الهلوسة"، مما يعني أن البرنامج يمكنه اختلاق الأشياء.
ويشعر آخرون بالقلق من أن النماذج اللغوية الكبيرة المتطورة يمكن أن تخدع البشر لاعتقادهم بأنها واعية ويمكنها حتى أن تشجع الناس على إيذاء أنفسهم أو إيذاء الآخرين.