OpenAI: محادثات ChatGPT قد تراجع من قبل السلطات لحماية الأمان

أميرة خالد
أعلنت شركة OpenAI أن بعض محادثات مستخدمي ChatGPT قد يتم رفعها إلى السلطات القانونية وفق سياسات الشركة الخاصة بالأمان والمراجعة، في خطوة تهدف لمنع الأذى في العالم الحقيقي، لكنها أثارت جدلاً واسعًا حول الخصوصية وحرية التعبير.
ووفقًا لسياسات OpenAI، تراجع المحادثات التي تحتوي على تهديدات مباشرة بالضرر تجاه الآخرين من قبل مراجعين بشريين، وإذا تبين أن التهديد جاد ووشيك، قد يتم إحالة القضية إلى الشرطة، بينما لا يتم رفع محتوى الأذى الذاتي للسلطات، بل يقدم للمستخدمين روابط لخطوط الأزمة للحصول على الدعم الفوري، كما قد يواجه المستخدمون الذين ينشرون تهديدات عنيفة تعليقًا مؤقتًا أو دائمًا لحساباتهم، إلى جانب العواقب القانونية المحتملة.
وتسلط هذه السياسة الضوء على التوتر المستمر بين الأمان والخصوصية في عصر الذكاء الاصطناعي، ويثير النقاد تساؤلات حول حدود ما يعتبر تهديدًا جادًا، واحتمالية الإبلاغ عن المحادثات الساخرة أو الافتراضية خارج سياقها، إضافة إلى حجم البيانات المشتركة مع السلطات القانونية.
وتعكس هذه الخطوة اتجاهًا عالميًا نحو مزيد من الرقابة والتنظيم على الذكاء الاصطناعي، ففي الصين تلزم منصات مثل WeChat وDouyin وWeibo بإضافة علامات مائية على المحتوى المولد بالذكاء الاصطناعي، بينما بدأت شركات أمريكية مثل جوجل تجربة تضمين بصمات رقمية في الإبداعات الناتجة عن الذكاء الاصطناعي عبر تقنية C2PA.
وأكدت OpenAI أن هذه الإجراءات تهدف لحماية الأفراد من الأذى، في حين يحذر البعض من أن الحدود الغامضة قد توسع نطاق المراقبة على المستخدمين العاديين، خاصة مع الاستخدام الواسع لـChatGPT في المحادثات اليومية والعصف الذهني وحتى الأدوار التمثيلية، وباختصار، يتجه قطاع الذكاء الاصطناعي عالميًا نحو المزيد من التنظيم والشفافية والمساءلة.