أثار عدد من
الباحثين مخاوف كبيرة بشأن أداة
النسخ الصوتي "وسبر" التي طورتها شركة
"أوبين إيه آي"، والتي تُستخدم في
المستشفيات ضمن مهام نسخ محادثات
المرضى مع الأطباء.
وكشف الباحثون
عن عيوب وأخطاء وصفوها بـ"الهلوسات القاتلة"، حيث تظهر الأداة أحيانًا ميلًا
لاختراع معلومات غير دقيقة، مما قد يعرّض المرضى إلى تشخيصات أو إجراءات طبية غير
صحيحة، وربما خطيرة.
ورغم أن شركة
"أوبين إيه آي" أشادت سابقًا بهذه الأداة، ووصفتها بأنها تتمتع بدقة
تقارب مستوى الإنسان، إلا أن العلماء وجدوا أن "وسبر" تختلق أحيانًا
مقاطع نصية أو جملًا كاملة لم ترد على لسان المتحدثين، وبحسب ما أفاد به أكثر من
اثني عشر مهندسًا وباحثًا أكاديميًّا، فقد تتضمن هذه "الهلاوس" تعليقات
عنصرية، أو خطابًا عنيفًا، أو حتى علاجات طبية غير واقعية.
وأشار الباحثون
إلى أن أحد أخطر استخدامات "وسبر" هو في
القطاع الصحي، حيث تبادر بعض
المراكز الطبية إلى اعتماد الأداة لنسخ استشارات المرضى، رغم تحذيرات "أوبين
إيه آي" الصريحة من استخدامها في "البيئات عالية الخطورة"، ويثير
هذا الاندفاع لاستخدام "وسبر" قلق الباحثين بشأن احتمالية تنفيذ الأطباء
لإجراءات بناءً على معلومات غير صحيحة.
في تجربة من
جامعة ميشيغان، أجرى أحد الباحثين دراسة حول دقة "وسبر" في نسخ
الاجتماعات العامة، واكتشف أن الأداة تولد "هلوسات" في ثمان من كل
عشر نسخ صوتية قام بفحصها، دفع هذا الأمر الباحث إلى محاولة تحسين النموذج، إلا
أن النتائج أظهرت صعوبة تصحيح الأخطاء بشكل كامل.
وعلقت مديرة
مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا السابقة ألوندرا نيلسون، على
المخاطر المرتبطة باستخدام "وسبر" في بيئات مثل المستشفيات، حيث حذرت من
أن الأخطاء الناتجة عن الهلوسات قد تكون لها "عواقب وخيمة حقًّا".
وأضافت نيلسون، الأستاذة بمعهد الدراسات
المتقدمة في نيوجيرسي، قائلة: "لا أحد يرغب في تلقي تشخيص خاطئ، ومن الضروري
أن تكون هناك ثقة كبيرة في الأدوات المستخدمة في المجال الطبي".
وأوضح الخبراء
أن ظاهرة الهلوسات في
الذكاء الاصطناعي ليست مقصورة على "وسبر" وحدها؛
بل يمكن أن تظهر في العديد من الأدوات التي تعتمد على تقنيات الذكاء الاصطناعي في
الترجمة، وإنشاء النصوص، وتقديم ترجمات الفيديو. ويؤكد الباحثون أن انتشار مثل هذه
الهلوسات على نطاق واسع قد يهدد سلامة المستخدمين في الصناعات التي تعتمد على
الدقة، مثل الطب والصحافة.