تواجه أداة التفريغ الصوتي “Whisper” من شركة OpenAI انتقادات متزايدة بسبب “اختلاقها” نصوصًا غير حقيقية ضمن تفريغ التسجيلات الصوتية، وهو ما قد يشكل خطرًا حقيقيًا في بعض المؤسسات التي تعتمد عليها، مثل المستشفيات والمراكز الطبية التي تعتمد على هذه التقنية.
وأفاد عدد من المطورين والباحثين الأكاديميين بأن الأداة تُدرج معلومات غير دقيقة، قد تشمل أدوية وهمية وتعليقات ذات طابع عنصري، وحتى عبارات تتضمن العنف.
وعلى الرغم من هذه التحذيرات، حققت النسخة الأحدث من الأداة نحو 4.2 مليون عملية تحميل عبر منصة HuggingFace المفتوحة المصدر خلال الشهر الماضي، كما أُدمجت الأداة في منصات الحوسبة السحابية لشركتي أوراكل ومايكروسوفت، بالإضافة إلى بعض إصدارات ChatGPT.
وتشير أدلة جمعتها جامعات وفرق بحثية مختصة إلى أن هذه المشاكل ليست حالات فردية، بل هي منتشرة إلى حد بعيد. على سبيل المثال: رصد باحث من جامعة ميشيغان نصوصًا مُختلقة في ثمانية من كل عشرة تسجيلات لاجتماعات عامة.
وفي دراسة أخرى، وثّق علماء حاسوب 187 حالة “هلوسة” عبر تحليل أكثر من 13 ألف تسجيل صوتي. وفي دراسة أخرى، عُثر على هذه الاختلاقات في التفريغ النصي لنحو 26 ألف تسجيل.
وتصبح هذه الأخطاء في المجال الطبي على وجه الخصوص أكثر إشكالية، إذ أفادت التقارير بأن هناك شركة تُسمى “نابلا” تعتمد على أداة Whisper لتفريغ التسجيلات الطبية، وهي تقدّم خدماتها لأكثر من 30 ألف طبيب و40 نظامًا صحيًا، وقد اُستخدمت الأداة في الشركة من أجل تفريغ ما يقارب 7 ملايين استشارة طبية حتى الآن.
ولا توجد حتى الآن آلية للتحقق من دقة النصوص المُفرّغة، لذا حذفتها الشركة لحماية البيانات، وفقًا لما أكده المسؤولون في الشركة التي تطلب من الأطباء مراجعة النصوص وتحريرها بنحو سريع، لكن هذا الأمر يضع عبئًا إضافيًا على الطواقم الطبية، ويثير تساؤلات حول مدى إمكانية تطبيقه.
وتظل الدقة التامة في تفريغ التسجيلات الصوتية هاجسًا رئيسيًا، خاصةً في مجالات حساسة كالمجال الطبي، إذ قد يؤدي اختلاق النصوص إلى تداعيات خطِرة على القرارات العلاجية.
نسخ الرابط تم نسخ الرابط