تقوم OpenAI بإنشاء فريق جديد لمنع الضرر الناتج عن إساءة استخدام أدوات الذكاء الاصطناعي

تقوم OpenAI بإنشاء فريق جديد لمنع الضرر الناتج عن إساءة استخدام أدوات الذكاء الاصطناعي


يتحدث الآباء والناشطون عن الأضرار والمخاطر المرتبطة بأدوات الذكاء الاصطناعي منذ أشهر.

قد يكون هذا أحد الأسباب الرئيسية التي دفعت شركة التكنولوجيا العملاقة OpenAI إلى إنشاء فريق جديد لمنع الضرر المرتبط بإساءة استخدام أدوات الذكاء الاصطناعي.

لقد حظيت هذه المسألة باهتمام كبير لعدة أشهر بعد أن تحدث الكثيرون عن تعرض الأطفال لخطر أكبر من التعرض للإيذاء من خلال أحدث أنواع التكنولوجيا.

تأتي هذه الأخبار بعد أن نشرت الشركة للتو قائمة وظائف جديدة على هذه الجبهة من خلال صفحتها المهنية. وتقول إن وجود فريق سلامة الأطفال هو أحد الأمور التي تعمل الشركة جنبًا إلى جنب منذ أشهر ويسعدها الإعلان عن بعض النتائج المثمرة في هذه المجموعة.

يتطلع الفريق إلى توظيف المزيد من المتخصصين المرتبطين بسلامة الأطفال والذين سيكونون مطلوبين لتطبيق سياسات OpenAI مع المحتوى الذي يتم إعداده من خلال الذكاء الاصطناعي. وهم يعملون بالمثل على عدد كبير من عمليات المراجعة المرتبطة بالمسائل الحساسة والكثير منها يتعلق بالقاصرين، وهي مسألة حساسة.

يقوم العديد من موردي التكنولوجيا من مختلف الأحجام بنشر الموارد على هذه الجبهة للتأكد من امتثالهم لقوانين مثل تلك المرتبطة بقواعد حماية الخصوصية عبر الإنترنت للحكومة الأمريكية. إنهم يتحكمون في ما يراه الأطفال ويفعلونه عبر الإنترنت وما لا يُسمح لهم بالوصول إليه.

حقيقة أن الشركة تقوم بتعيين خبراء في مجال سلامة الأطفال ليست في الواقع مفاجأة كبيرة. وهذا صحيح بشكل خاص لأن الشركة تتوقع وجود قاعدة كبيرة من المستخدمين دون السن القانونية في وقت ما قريبًا.

نشأ تشكيل الفريق الجديد بعد أسابيع قليلة من رؤية عملاق التكنولوجيا يطرح شراكات على هذه الجبهة مع شركات مثل Common Sense Media بحيث يضمن شراكة رائعة صديقة للأطفال فيما يتعلق بشروط وأحكام الذكاء الاصطناعي.

وقد أعرب الفريق عن مخاوفه الخاصة بشأن السياسات التي تطبقها الشركة في الوقت الحالي، والتي يرتبط معظمها بالقاصرين وكيفية التعامل معهم على النظام.

أثبتت الأبحاث مرارًا وتكرارًا كيف يتجه القاصرون أكثر نحو أدوات الذكاء الاصطناعي ليس فقط للترفيه ولكن أيضًا للمساعدة في واجباتهم المدرسية، مما يسمح لروبوتات الدردشة بالقيام بعملهم. ويطلبون أيضًا من برنامج الدردشة الآلي المساعدة في أمور مثل المشكلات الشخصية.

كما ذكرنا في أحد الاستطلاعات، تحدث 29% من جميع الأطفال عن أداة ChatGPT وكيف تساعدهم في التعامل مع أمور مثل القلق ومشاكل الصحة العقلية. وفي الوقت نفسه، تحدث 22% منهم عن كيفية مساعدتهم في الأمور المتعلقة بأصدقائهم، كما أضاف 16% كيف يساعدهم في الأمور العائلية التي يواجهون فيها مشكلات.

يبدو أن هذا يمثل نوعًا من المخاطر المتزايدة ولا يغض الخبراء الطرف عن ذلك.

في الماضي، رأينا الكثير من النشطاء والمنظمات التعليمية يصدرون حظرًا على الأداة بعد أن وجدوا أنها مذنبة بارتكاب معلومات مضللة وحتى سرقة أدبية من أسوأ الأنواع. لقد ذهب البعض إلى حد إلغاء الحظر ولكن معظمهم مقتنعون بأن GenAI موجود بالفعل من أجل تحسين المجتمع وهنا لمساعدتهم بدلاً من التسبب في ضرر كبير.

لقد رأينا الكثير من الاستطلاعات التي تم إنشاؤها على هذه الجبهة حيث تحدث الناس عن أطفال أفادوا أنهم يستخدمون الذكاء الاصطناعي التوليدي لأسباب سلبية مثل إنشاء بيانات أو صور مزيفة تؤدي في النهاية إلى إزعاجهم.

ولهذا السبب فإن عدد المكالمات مع استخدام الأطفال للتكنولوجيا يستمر في النمو أثناء حديثنا. علاوة على ذلك، قد يكون هذا أحد الأسباب الرئيسية التي دفعت اليونسكو إلى إصدار سلسلة من الدعوات للحكومات حتى تتمكن من تنظيم استخدام تكنولوجيا الذكاء الاصطناعي في المدارس بشكل أفضل وتمكين القيود العمرية والضمانات الصحيحة.


 

Comments