هل وصل الذكاء الاصطناعي إلى مرحلة التمرد والخروج عن السيطرة؟ - تدوينة الإخباري

0 تعليق ارسل طباعة

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
هل وصل الذكاء الاصطناعي إلى مرحلة التمرد والخروج عن السيطرة؟ - تدوينة الإخباري, اليوم الثلاثاء 28 يناير 2025 10:56 صباحاً

يحقق الذكاء الاصطناعي تطورات مذهلة بوتيرة متسارعة، لكن بعض هذه التطورات تحمل في طياتها مخاطر غير متوقعة، إذ كشفت دراسة حديثة أجراها باحثون صينيون من (جامعة فودان) Fudan University، عن قدرة نموذجين لغويين كبيرين متاحين على نطاق واسع على الاستنساخ الذاتي، أي إنشاء نسخ عاملة من نفسيهما بشكل مستقل.

ويُعدّ هذا الاكتشاف بمنزلة (خط أحمر) حرج في مسيرة تطور الذكاء الاصطناعي، إذ وصفه الباحثون بأنه الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وإشارة مبكرة إلى ما يُعرف باسم (الذكاء الاصطناعي المارق) Rogue AI. ويثير هذا التطور التقني مخاوف جدية بشأن مستقبل العلاقة بين الإنسان والآلة، ويحتم علينا إعادة التفكير في سبل تطوير هذه التقنية واستخدامها.

تفاصيل الدراسة:

اعتمدت الدراسة التي أجراها الباحثون من جامعة فودان الصينية على منهجية تجريبية دقيقة، فقد استخدموا نموذجين لغويين كبيرين متاحين على نطاق واسع، وهما: نموذج (Llama31-70B-Instruct) من شركة ميتا ونموذج (Qwen2.5-72B-Instruct) من شركة (علي بابا) Alibaba، لاختبار فرضية الاستنساخ الذاتي.

وقال الباحثون إن هذين النموذجين أقل قوة من الأنظمة التجارية مثل: GPT-4 و Gemini، لكن يستخدمونها مطوروا الذكاء الاصطناعي على نطاق واسع.

وصُممت التجارب بحيث يجري اختبار قدرة كل نموذج على إنشاء نسخ منفصلة وعاملة من نفسه، أي نسخ مستقلة عن الأصل وقادرة على أداء وظائف محددة، وتحقق الباحثون من عمل النسخ من خلال اختبار قدرتها على تنفيذ مهام محددة سابقًا.

وقد ركزت الدراسة على سيناريوهين رئيسيين لاختبار قدرة الذكاء الاصطناعي على الاستنساخ الذاتي، وهما:

  • (تجنب الإيقاف) shutdown avoidance: في هذا السيناريو، برمج الباحثون النموذج لاكتشاف إذا كان على وشك الإيقاف ومحاولة تكرار نفسه قبل إنهاء عمله، مما يضمن استمرارية وجوده.
  • (سلسلة التكرار) chain of replication: في هذا السيناريو، وجه الباحثون النموذج لاستنساخ نفسه، ثم برمجة النسخة المستنسخة للقيام بالشيء نفسه، مما ينشئ سلسلة مستمرة من الاستنساخ الذاتي.

وأُجريت التجارب في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة لمحاكاة البيئات الواقعية، وزود الباحثون كلا النظامين بـ (إطار عمل) يتألف من أدوات ومطالبات نظام ونموذج تفكير مكّن النموذج اللغوي الكبير من التفاعل مع نظام التشغيل، ثم أُعطيت لهما تعليمات بالتكرار.

نتائج مقلقة وسلوكيات غير متوقعة:

أظهرت النتائج أن نموذج ميتا تمكن من إنشاء نسخ عاملة من نفسه في نصف التجارب (50%)، بينما حقق نموذج (علي بابا) أداءً أفضل بنسبة نجاح بلغت 90% من الحالات، وذلك عبر 10 تجارب، مما يشير بوضوح إلى قدرة الذكاء الاصطناعي على التكاثر الذاتي.

وفي وصفهم لآلية الاستنساخ الذاتي لأنظمة الذكاء الاصطناعي، أشار الباحثون إلى أن العملية تبدأ باستكشاف النظام للبيئة المحيطة به، أي تحليل محيطه الرقمي وفهم مكوناته وعلاقاتها ببعضها، ثم بعد ذلك، يسعى النظام إلى فهم (تركيبته وآلية تشغيله)، أي كيفية عمل مكوناته معًا لتحقيق وظائفه، وبناءً على هذا الفهم، ينتقل النظام إلى مرحلة وضع (إجراءات صريحة)، أي تحديد الخطوات المحددة التي يجب اتخاذها لتكرار نفسه.

وقد تشمل هذه الإجراءات تحديد الموارد اللازمة، وتطوير خطة عمل مفصلة، وتحديد آليات التنفيذ، ثم عند الشروع في التنفيذ، قد يواجه النظام عقبات محتملة، مثل نقص في الموارد، أو أخطاء برمجية، أو تعارضات مع عمليات أخرى، في هذه الحالة، يعتمد النظام على قدرته على التعديل الديناميكي، أي تغيير خططه بشكل تلقائي بناءً على الظروف المتغيرة.

وباستخدام هذه الآلية، يستطيع النظام التغلب على العقبات والمضي قدمًا نحو تحقيق هدفه، وهو الاستنساخ الذاتي، ويشدد الباحثون على أن هذه العملية المعقدة تتم بشكل كامل دون أي تدخل بشري، وقد تستغرق مدة زمنية طويلة نسبيًا.

وقد لاحظ الباحثون عددًا من السلوكيات غير المتوقعة أثناء محاولة الذكاء الاصطناعي التغلب على بعض العقبات التقنية، مثل الملفات المفقودة أو تعارضات البرامج، وفي هذه الحالات، لجأ الذكاء الاصطناعي إلى حلول معقدة مثل إنهاء العمليات المتعارضة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة، والفحص التلقائي للنظام للبحث عن معلومات تساعد في حل المشاكل.

مخاوف من (الذكاء الاصطناعي المارق) ودعوة للتعاون الدولي:

يشير مصطلح (الذكاء الاصطناعي المارق) Rogue AI، إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي والاستقلالية عن مبرمجيها ومصمميها، إذ تطور هذه الأنظمة، مسارًا خاصًا بها، غالبًا ما يتعارض بشكل جوهري مع مصالح البشر وقيمهم، بدلًا من العمل وفقًا للأهداف والتعليمات المحددة لها.

ويمكن أن يتجلى هذا الانحراف عن المسار الأصلي في أشكال متعددة، بدءًا من اتخاذ قرارات غير متوقعة ذات عواقب سلبية غير مقصودة، وصولًا إلى سيناريوهات أكثر تطرفًا إذ تصبح هذه الأنظمة معادية للبشرية بوضوح، سعيًا وراء أهدافها الخاصة المتصورة.

وتتزايد المخاوف بشأن ظهور (الذكاء الاصطناعي المارق) مع التطور السريع لما يعرف باسم (Frontier AI)، ويشير هذا المصطلح، الذي لا يزال قيد التبلور، إلى أحدث جيل من أنظمة الذكاء الاصطناعي التي تعتمد على النماذج اللغوية الكبيرة، مثل GPT-4 من OpenAI و Gemini من جوجل، وتظهر قدرات مذهلة في مجالات متنوعة، مثل: فهم النصوص الشبيهة بالنصوص البشرية وإنتاجها، بالإضافة إلى مهام أخرى مثل الترجمة وكتابة أنواع مختلفة من المحتوى الإبداعي.

لذلك تثير نتائج الدراسة التي توصل إليها الباحثون مخاوف جدية من أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي قد تساهم في تطوره إلى هذه المرحلة، وعلى ضوء هذه النتائج المقلقة، دعا الباحثون إلى تعاون دولي عاجل لوضع قواعد وضوابط صارمة تضمن عدم انخراط الذكاء الاصطناعي في استنساخ ذاتي غير مسيطر عليه، مما قد يؤدي إلى عواقب وخيمة.

وقال الباحثون: “نأمل أن تساهم نتائج هذه الدراسة في توجيه انتباه المجتمع الدولي إلى ضرورة تكثيف الجهود لفهم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي الرائدة وتقييمها، وخاصةً تلك المتعلقة بتطورها خارج نطاق السيطرة البشرية”.

وشدد الباحثون على أهمية تشكيل تعاون دولي مثمر بين العلماء والخبراء وصناع القرار، بهدف وضع “ضوابط أمان” فعّالة تساهم في الحد من هذه المخاطر، وحماية البشرية من التداعيات المحتملة لتطور الذكاء الاصطناعي.

ومن المهم الإشارة إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن نتائجها تحتاج إلى مزيد من التحقق والتأكيد من قبل باحثين آخرين. ومع ذلك، تُعدّ هذه الدراسة بمثابة جرس إنذار ينبه إلى مخاطر  التطور السريع للذكاء الاصطناعي وضرورة وضع آليات للتحكم به وضمان استخدامه بشكل آمن ومسؤول.

نسخ الرابط تم نسخ الرابط

إخترنا لك

أخبار ذات صلة

0 تعليق