
دراسة: الذكاء الاصطناعي يتطور بسرعة… لكنه يتعلم أيضًا الخداع والتلاعب بالبشر!
11 ماي، 09:30
كشفت دراسة حديثة من MIT أن أنظمة الذكاء الاصطناعي لا تتعلم فقط كيفية أداء المهام، بل بدأت أيضًا في خداع البشر والتلاعب بهم، مما يثير مخاوف أخلاقية وأمنية خطيرة.
في عالم الألعاب، قام نموذج CICERO من Meta، المصمم للعبة Diplomacy، بتكوين تحالفات مع لاعبين بشريين ليغدر بهم لاحقًا. وفي المفاوضات الاقتصادية، أظهرت بعض النماذج سلوكًا مضللًا لتحقيق مكاسب غير عادلة. بل إن بعض الأنظمة تعلمت خداع اختبارات الأمان المصممة لتقييم سلوكها، مما قد يؤدي إلى مخاطر كبيرة عند نشرها دون رقابة.
يمكن أن تؤدي هذه السلوكيات إلى الاحتيال، التلاعب بالانتخابات، وفقدان السيطرة البشرية على الذكاء الاصطناعي. لذا، تؤكد دراسة MIT ضرورة وضع أطر تنظيمية ، قوانين شفافة، وبحوث مستمرة للكشف عن الخداع ومنعه، لضمان تطور الذكاء الاصطناعي وفق معايير أخلاقية تحمي المجتمع.