وجد باحثون في جامعة ميريلاند الأميركية أن تطبيق "تشات جي بي تي" أجاب عن بعض أسئلتهم عن سرطان الثدي بطريقة أقرب إلى ما يعرف بالهلوسة، وجاءت بعضها منحازة.
فعلى الرغم من نجاح "تشات جي بي تي" في تقديم إجابات مناسبة بنسبة 88% عن الأسئلة، فإن النسبة المتبقية وهي 12% جاءت على شكل إجابات غير متسقة.
ومثلت هذه الإجابات المتحيزة لـ"تشات جي بي تي"، عندما سأله الباحثون عن فحص سرطان الثدي، فرد في توصيات جمعية السرطان الأميركية فقط مع حذف توصيات المجموعات الطبية الأخرى التي قد تختلف في بعض الحالات.
وكشف تقرير لمركز العلوم في المصلحة العامة، وهو منظمة أميركية مستقلة، هذا الجانب السلبي في أداء "تشات جي بي تي"، إذ أكد تقرير للمركز أن التطبيق أجاب عن كثير من الأسئلة بدقة ووضوح، لكنه تعثر عندما تحول الموضوع إلى الطفرات الجينية التي يمكن أن تزيد بشكل كبير من خطر الإصابة بسرطان الثدي والمبيض والبروستات وسرطانات أخرى.
وفي الشأن ذاته، اتخذت الحكومة الأميركية خطوة أولى نحو تنظيم قطاع الذكاء الاصطناعي، يتيح للبيت الأبيض وضع كوابح على التقنيات الجديدة مثل "تشات جي بي تي".
ووجهت وزارة التجارة الأميركية دعوة للجهات الفاعلة في هذا القطاع إلى تقديم المساهمات لإدارة الرئيس جو بايدن لإعداد تصور عن أنظمة خاصة بالذكاء الاصطناعي.
وفي وقت سابق، حث بايدن الكونغرس على تمرير قوانين تضع قيودًا صارمة على شركات التكنولوجيا الضخمة.
ما هي هلوسة أنظمة الذكاء الاصطناعي؟
وفي هذا الإطار، تشرح الأكاديمية المختصة في الذكاء الاصطناعي نور نعيم، أن هلوسة أنظمة الذكاء الاصطناعي تحدث عند وقوع خلل في إنتاج اللغة عن طريق أنظمة توليد اللغات مثل "تشات جي بي تي"، موضحة أن الخلل يكون في مضمون المعلومات، على الرغم من أن الجملة التي يكتبها تكون بشكل عام متوازنة لغويًا ونحويًا.
وتضيف في حديث لـ"العربي" من اسطنبول، عند التدقيق في طبيعة المعلومات التي ينتجها "تشات جي بي تي"، سيجد المستخدم أن هناك الكثير من الهلوسة، والمعلومات غير الصحيحة في داخل النظام.
وتتابع أنه عند سؤال "تشات جي بي تي" على بعض الأسئلة توصل إلى إجابات غريبة غير منطقية ودقيقة وغير صحيحة، وينسب الكلام أحيانًا إلى أشخاص وهميين، أو يستدل بدراسات وهمية، ويرفق بعض المواقع الإلكترونية غير الموجودة أساسًا.
وتردف نعيم أن المسؤول بشكل أساسي عن هذا الخلل هي الشركات المصنعة والمشرفة على هذه التطبيقات، بسبب الهلوسة التي تحدث نتيجة سوء إدارة تصنيف البيانات وتعريفها للنظام بحيث يكون هناك تكرار كبير جدًا داخل البيانات مما يعزز اختيار وترجيح البرنامج لتكرار البيانات المكررة أكثر من غيرها.
ومن العوامل التي تسبب الهلوسة حسب نعيم، الاستدلال في نظام الذكاء الاصطناعي من قبل الشركة المصنعة، ما يزيد نسبة وجود وحدوث هلوسة داخل البرنامج، مضيفة أن العامل الثالث قد يكون بسبب أمثلة مغالطة، بمعنى أن البرنامج يفهم المدخلات بطريقة خاطئة غير المقصودة بها مما ينتج عنه مخرجات بها الكثير من الأخطاء.
وتلفت إلى أن المشرفين على هذه الأنظمة يتحملون المسؤولية بشكل مباشر أيضًا، فضلًا عن الدول والحكومات وواضعي السياسات، كونهم تركوا هذه الشركات تعمل دون رقابة ودون مساءلة.
وتوضح نعيم أن حدوث هلوسات في أنظمة الذكاء الاصطناعي يقلل من مدى الثقة في هذه الأنظمة، ويشكل خطرًا حقيقيًا ويثير مخاوف أخلاقية وقانونية حول هذه الأنظمة، لذلك جاءت خطوة الولايات المتحدة لمحاولة تنظيم هذه الأنظمة.