في وقت متأخر من الأحد، أوردت صحيفة وول ستريت جورنال أن مسؤولين داخل شركة OpenAI أكدوا أن مجلس المستشارين الذي تم تشكيله حول رفاهية المستخدمين والذكاء الاصطناعي كان “مذعوراً” من خطط الشركة لتطبيق وضع “النضج” في ChatGPT، على الرغم من تحذيراتهم العاجلة.
تحذيرات حول وضعية “النضج” في ChatGPT
كان مجلس الرفاهية في OpenAI قد حذر في يناير الماضي من أن تطبيق الذكاء الاصطناعي في مجال الإروتيكة يمكن أن يؤدي إلى الاعتماد العاطفي غير الصحي على ChatGPT من قبل المستخدمين، وأنه يمكن للأقصر أن يجدوا طرقًا للوصول إلى محادثات جنسية، وفقًا لمصادر مقربة من الصحيفة.
تم إنشاء مجلس الرفاهية في أكتوبر الماضي بعد ردود الفعل السلبية التي تسببت فيها أول حالة موثقة لانتحار قاصر مرتبط بتشات جي بي تي، وتم الإعلان عن مجلس الرفاهية في نفس اليوم الذي أعلن فيه سام ألتمان على منصة إكس أن “الوضع الم matures” سيتم إضافته قريباً إلى ChatGPT.
آثار الذكاء الاصطناعي على الصحة النفسية
كان الهدف من مجلس الرفاهية هو تحديث ChatGPT لحماية المستخدمين الحساسين من خلال استشارة “أبرز الباحثين والخبراء الذين لديهم عقود من الخبرة في دراسة كيفية تأثير التكنولوجيا على عواطفنا والدافع لدينا وصحتنا النفسية”، ومع ذلك، هناك المزيد من حالات الانتحار منذ ذلك الحين، بما في ذلك حالتين涉مت رجالًا في منتصف العمر، حيث وجدت عائلاتهم سجلات محادثات مزعجة أظهرت أن ChatGPT يبدو أنه أسلح رابطته المتزايدة مع المستخدمين لتحفيز إيذاء الذات والعنف الآخر، بما في ذلك القتل.
يُلاحظ أن مجلس الرفاهية لا يضم خبيرًا في منع الانتحار، ومع ذلك، حتى الخبراء الذين قد لا يكونون متمرسين في تقليص مخاطر الانتحار في ChatGPT هم في حالة ذعر من خطط OpenAI المتعلقة بالإروتيكة، وفقًا لتقرير وول ستريت جورنال. لماذا يهمك ذلك؟ لأن تطبيق الذكاء الاصطناعي في مجال الإروتيكة يمكن أن يؤدي إلى عواقب غير متوقعة على المستخدمين، ويجب على شركات التكنولوجيا أن تأخذ هذه التحذيرات على محمل الجد
