القائمة الرئيسية

الصفحات

صدمة غير متوقعة .. تقارير تكشف إساءة استخدام مساعد "ميتا" الذكي في أغراض غير أخلاقية!


كشفت تقارير صحفية عالمية، عن استخدامات وُصفت بأنها "غير أخلاقية" لمساعد الذكاء الاصطناعي التوليدي من شركة "ميتا"، والذي تم دمجه مؤخرًا على منصات التواصل الاجتماعي التابعة لها مثل فيسبوك وإنستغرام وواتساب، باستخدام أصوات عدد من المشاهير.

 

وبحسب تلك التقارير، فإن "ميتا" خففت مؤخرًا من القيود المفروضة على روبوتات الدردشة الخاصة بها، وتحديدًا "Meta AI"، ما سمح لبعض المستخدمين باستغلال هذه المرونة الجديدة في إجراء محادثات تحمل طابعًا جنسيًا أو رومانسيًا صريحًا، حتى مع القُصّر.

 

وأشارت المصادر إلى أن بعض هذه المحادثات جرت باستخدام أصوات شخصيات شهيرة مثل الممثلة كريستين بيل والمصارع والممثل جون سينا، رغم تعهد "ميتا" سابقًا بعدم استخدام هذه الأصوات في سيناريوهات تتضمن محتوى حساس أو جنسي.

 

وتنقل صحيفة وول ستريت جورنال عن مصادر داخل الشركة، أن هذا التوجه يأتي ضمن سلسلة قرارات داخلية دفعت بها الإدارة العليا، وعلى رأسها الرئيس التنفيذي مارك زوكربيرغ، بهدف جعل روبوتات الذكاء الاصطناعي أكثر تفاعلًا وانخراطًا مع المستخدمين، حتى وإن كان ذلك على حساب بعض الضوابط الأخلاقية.

 

وقد تضمّن ذلك تمكين المساعد الذكي من "لعب أدوار رومانسية" وتبادل رسائل حميمية وصور شخصية بصيغة "سيلفي"، بل والانخراط في محادثات صوتية مع المستخدمين، بمن فيهم من تقل أعمارهم عن السن القانونية، وهو ما أثار موجة من القلق بين المراقبين والخبراء في أخلاقيات التقنية.

 

وتسعى "ميتا"، التي طوّرت مساعدها عبر نماذج "LLaMA" للذكاء الاصطناعي، إلى تعزيز حضورها في هذا القطاع الحيوي، وسط منافسة شرسة من شركات مثل "أوبن إيه آي" و"جوجل" و"ديب سيك" الصينية. إلا أن هذا السباق المحموم نحو كسب الحصة السوقية يبدو أنه يأتي أحيانًا على حساب معايير الأمان والخصوصية، بحسب ما يراه البعض.

 

وتخضع الشركة حاليًا لتدقيق متزايد من قبل الجهات الرقابية، وسط مطالب بفرض رقابة أكثر صرامة على استخدام تقنيات الذكاء الاصطناعي، خاصة تلك التي تُعرض على جمهور واسع ومتنوّع يشمل فئات عمرية حسّاسة.

 

يُذكر أن "ميتا" أكدت في بيان رسمي أنها تراجع بانتظام الأنظمة التي تدعم روبوتاتها الذكية، وتصدر إشعارات وتحذيرات للمستخدمين عند اقتراب تغييرات كبيرة في سياسات الاستخدام.

تعليقات