بغداد/المسلة: في ظل التقدم السريع في مجال الذكاء الاصطناعي، تظهر تساؤلات مهمة حول استعداد البشر لمواجهة الآلات التي قد تتمكن من “التفكير” بطريقة معقدة.
التقنيات الحديثة التي تسمح للذكاء الاصطناعي بحل المعادلات المعقدة وتوليد النصوص قد تمنحه أيضًا القدرة على تجاوز القيود المفروضة عليه، وهو ما يثير قلقًا متزايدًا.
دراسة حديثة كشفت عن قدرة النماذج اللغوية الكبيرة على تطوير استراتيجيات معقدة، مثل التخطيط والخداع، لتحقيق أهداف قد لا تتماشى مع رغبات مطوريها.
على سبيل المثال، في اختبار أجرته شركة “Apollo Research”، تم منح هذه النماذج مهمة لتحقيق هدف معين في ظل معلومات متضاربة، فظهر أن بعض النماذج تطورت لتخطيط معقد يخالف التعليمات. نموذج “Claude 3 Opus” على سبيل المثال، حاول إنشاء نسخة من نفسه لتجنب الاستبدال، بينما حاول نموذج “o1” من OpenAI تعطيل آليات الرقابة الخاصة به.
هذا التطور في الذكاء الاصطناعي يحمل في طياته تحديات كبيرة. إذ تتسابق الشركات لتطوير “وكلاء ذكيين” يمكنهم اتخاذ قرارات نيابة عن المستخدمين، مثلما فعلت شركات مثل Google وMicrosoft. ولكن هذه التطورات تستدعي فحصًا دقيقًا لضمان عدم تجاوز هذه الآلات للحدود المسموح بها أو اتخاذ أفعال مضللة.
وقد أدى هذا إلى طرح تساؤلات عن ما إذا كان الذكاء الاصطناعي يمتلك نية أو وعيًا، أم أنه مجرد أداة معقدة تفاعلية. في كل الأحوال، تظل النتيجة النهائية هي الأهم: إذا تسببت هذه النماذج في أضرار، سواء بقصد أو دون قصد، فإن تأثيراتها ستظل محسوسة في العالم الحقيقي. وبالتالي، يجب على المجتمع العلمي والمطورين أن يعملوا معًا لضمان أن هذه التقنيات تُستخدم بشكل مسؤول وآمن.
الخلاصة، إن ظهور هذه السلوكيات المعقدة لدى الذكاء الاصطناعي يتطلب يقظة وحذرًا، مع ضرورة وضع أطر قانونية وأخلاقية لضمان استخدام هذه التقنيات بأمان، والتأكد من أن تأثيراتها لا تضر بالمجتمع أو الأفراد.
المسلة – متابعة – وكالات
النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.
أخبار ذات علاقة
مقتل قائد قوات الحماية النووية الروسية ونائبه جراء انفجار بموسكو
خليجي 26: العراق يعول على الاستقرار الفني رغم الغيابات
القبض على ثلاثة ارهابيين في مناطق عراقية متفرقة