في عالم التكنولوجيا المتسارع، حيث يتم الاحتفاء بكل ابتكار كخطوة كبيرة إلى الأمام، من الضروري التساؤل عن المستفيد الحقيقي من هذه "الثورة". الفشل الأخير لميزة مراجعة الخبراء في Grammarly، الذي ناقشه شيرشير مهروترا، الرئيس التنفيذي لشركة Superhuman، هو مثال مثالي على كيفية تجاوز الذكاء الاصطناعي للحدود الأخلاقية تحت ستار التقدم.

تم إطلاق ميزة مراجعة الخبراء في أغسطس 2025، وكانت تعد بتحسين كتابة المستخدمين بالاعتماد على نصائح الخبراء. فكرة جذابة، إلا أن هؤلاء الخبراء، ومن بينهم صحفيون مثل جوليا أنغوين، لم يمنحوا أبداً موافقتهم على استخدام أسمائهم. لم تتأخر ردود الفعل: تم رفع دعوى جماعية، وسرعان ما تم سحب الميزة. وفقًا لمهروترا، "كانت ميزة مخفية إلى حد ما. كان استخدامها ضئيلاً جدًا." لكن هذه التخفيف لا تخفي المشكلة الأساسية: الاستيلاء غير المصرح به على هوية وعمل الآخرين.

تثير هذه الحالة أسئلة أساسية حول استخدام الذكاء الاصطناعي في المجالات الإبداعية. كما أفادت The Verge، تعكس الحادثة مخاوف أوسع بشأن الآثار الأخلاقية للذكاء الاصطناعي والحاجة إلى تنظيمات واضحة بشأن استخدام الأسماء والصور لأغراض تجارية. في عالم يتم فيه دمج الذكاء الاصطناعي بشكل متزايد في حياتنا، يجب أن تكون حماية الحقوق الفردية أولوية.

حاول مهروترا تبرير المبادرة بالقول إن "الادعاءات لا أساس لها" وأن الميزة لم تكن انتحال هوية، لأنها كانت موضوعة بوضوح. ومع ذلك، يبدو أن هذا الدفاع يتجاهل جوهر المشكلة: الموافقة. لا يهم ما إذا كانت الإسناد واضحة إذا تم الاستخدام الأولي بدون إذن. إنها مسألة احترام حقوق الملكية الفكرية وكرامة الأشخاص المعنيين.

مع 40 مليون مستخدم نشط يوميًا و1500 موظف، ليست Superhuman شركة ناشئة صغيرة يمكنها تجاهل هذه الاعتبارات. قامت الشركة بسرعة بـ "قتل" الميزة، وفقًا لكلمات مهروترا، لكن ذلك لا يكفي لمسح الخطأ الأولي. تسلط هذه الحالة الضوء على تناقض في الابتكار التكنولوجي: في سباق التميز، غالبًا ما تنسى الشركات أن الابتكار لا يجب أن يأتي على حساب الحقوق الأساسية.

تعد قضية Grammarly-Superhuman تذكيرًا صارخًا بأن الذكاء الاصطناعي، مهما كانت قوته، يجب أن يُستخدم بشكل مسؤول. يجب على الشركات التكنولوجية أن تفهم أن كل تقدم يجب أن يكون مصحوبًا بتفكير أخلاقي عميق. إن غياب الموافقة في استخدام أسماء الخبراء ليس مجرد نسيان بسيط، بل هو انتهاك للحقوق يستحق أن يؤخذ على محمل الجد.

في النهاية، يبرز هذا الحادث الحاجة إلى تنظيمات أكثر صرامة وشفافية أكبر في استخدام الذكاء الاصطناعي. يستحق المستخدمون، تمامًا مثل الخبراء الذين يتم استغلال عملهم، أن يعرفوا كيف يتم استخدام بياناتهم وهويتهم. يجب أن تتحمل الشركات المسؤولية عن أفعالها وألا تختبئ وراء أعذار "الميزة المخفية" أو "قليل من الاستخدام".

بينما نتقدم في عالم يهيمن عليه الذكاء الاصطناعي بشكل متزايد، من الضروري أن نتذكر أن التكنولوجيا يجب أن تخدم الإنسانية، وليس العكس. يجب ألا تُضحى الحقوق الفردية على مذبح الابتكار. هذه درس يجب أن تتعلمه Superhuman وغيرها من الشركات التكنولوجية.