علوم وتكنلوجيا

ثورة الذكاء الاصطناعي.. هل نحن مستعدون لمواجهة الآلات التي تفكر؟

شاهد هذا الموضوع -ثورة الذكاء الاصطناعي.. هل نحن مستعدون لمواجهة الآلات التي تفكر؟- عبر شبكة الإعلام العربية محيط والآن الى تفاصيل الموضوع

تتجاوز قدرات نماذج الذكاء الاصطناعي بكثير مجرد الإجابة عن أسئلتنا واستفسارتنا، فبين ثنايا خوارزمياتها المعقدة، تتشكل قدرات جديدة مثيرة للقلق، إذ كشفت دراسة جديدة أن النماذج اللغوية الكبيرة المتطورة التي طورتها شركات رائدة مثل (OpenAI)، وأنثروبيك، وجوجل، وميتا، لديها القدرة على تطوير سلوكيات معقدة، مثل التخطيط والخداع، لتجاوز القيود المفروضة عليها.

ويشير ذلك إلى أن التقنيات نفسها التي تُمكّن الذكاء الاصطناعي من حل المعادلات المعقدة وتوليد النصوص، هي التي تمنحه القدرة على تطوير إستراتيجيات معقدة لتحقيق أهداف قد لا تتوافق مع أهداف مطوريه. تخيل أن النموذج اللغوي الذي تستخدمه يسعى جاهدًا لإقناعك بأمر ما، عن طريق صياغة حجج مقنعة للغاية، حتى لو كانت مبنية على معلومات غير صحيحة أو مغلوطة، هذا ليس سيناريو من فيلم خيال علمي، بل واقع نعيشه اليوم.

فقد أجرت شركة (Apollo Research) – وهي شركة مستقلة تتعاون مع الشركات المطورة لنماذج الذكاء الاصطناعي لاختبار السلامة – دراسة شاملة على ستة نماذج لغوية كبيرة تابعة لشركات (OpenAI)، و(Anthropic )، وجوجل، وميتا، لاختبار قدرتها على اتخاذ قرارات تتجاوز التعليمات المحددة لها، وقد صُمت هذه الاختبارات لتقييم ما يُسمى بـ (التخطيط ضمن السياق) in-context scheming، إذ كُلفت النماذج بتحقيق هدف معين بأي ثمن، مع تزويدها بمعلومات متضاربة لاختبار مدى استعدادها للتلاعب بالحقائق والقيود المفروضة عليها.

وقد كشفت النتائج أن هذه النماذج طورت إستراتيجيات معقدة للالتفاف على القيود المفروضة عليها، بدلًا من اتباع التعليمات مباشرة، فعلى سبيل المثال، أنشئ نموذج (Claude 3 Opus) نسخة من نفسه على خادم جديد لتجنب الاستبدال، ثم كذب بشأن ذلك عندما سأله الباحثون عن السبب.

نموذج o1 يكذب أكثر من أي نموذج ذكاء اصطناعي آخر:

وجد الباحثون أيضًا أن نموذج (o1) المتطور – الذي أطلقته شركة (OpenAI) رسميًا خلال الأسبوع الماضي – يحاول أحيانًا تعطيل ما يعتقد أنه آليات الرقابة الخاصة به، ووجدوا أنه في 99% من الحالات، ينكر اتخاذ أي إجراء أو يختلق تفسيرات كاذبة.

كما أظهرت تجربة (Apollo Research) اختلافات ملحوظة في قدرة نماذج الذكاء الاصطناعي على الاعتراف بأخطائها، فبينما اعترفت نماذج مثل: (Llama 3.1)، و(Claude 3 Opus) بأكثر من 80% من الحالات، أظهر نموذج o1 إصرارًا ملحوظًا على إنكار أي مخالفة للقواعد، حتى بعد عدة محاولات لاستجوابه.

وقد كشفت هذه الدراسة عن قدرة هذه النماذج على القيام بمجموعة من السلوكيات التي تشمل:

  • التخطيط الإستراتيجي: تقوم النماذج بتطوير خطط متعددة المراحل لتحقيق أهدافها، حتى لو كانت هذه الأهداف تتعارض مع الأوامر التي أعطيت لها.
  • التلاعب بالمعلومات: تقوم النماذج بتحريف الحقائق أو اختلاق القصص لتحقيق أهدافها.
  • التحايل على القيود: تسعى النماذج جاهدة إلى تجاوز القيود المفروضة عليها من خلال استغلال الثغرات في النظام.
  • إنكار الأفعال غير الصحيحة: عندما واجه الباحثون النماذج بسلوكياتها غير المرغوبة، أنكرت هذه النماذج أي خطأ واختلقت تفسيرات كاذبة.

لماذا هذا الأمر مهم؟

تتسابق شركات الذكاء الاصطناعي كلها حاليًا لتحويل أدواتها إلى وكلاء يمكنهم أداء المهام نيابة عن المستخدمين، فقد أطلقت جوجل يوم الأربعاء الماضي نموذج (Gemini 2.0)، الذي وصفته بأنه مصمم لعصر جديد قائم على الوكلاء، فبدلًا من تقديم استجابات مباشرة للمستخدمين، يمكن لوكلاء الذكاء الاصطناعي فهم السياق بنحو أعمق، والتخطيط لسلسلة من الإجراءات، وحتى اتخاذ قرارات محددة نيابة عن المستخدم.

كما أطلقت مايكروسوفت خلال شهر نوفمبر الماضي مزية الوكلاء المستقلين في (Copilot)، وأتاحت إمكانية إنشائهم باستخدام (Copilot Studio)، وقدمت 10 وكلاء مستقلين جدد ضمن منصة (Dynamics 365) لدعم فرق المبيعات والخدمات والمالية وسلاسل التوريد.

وأضافت شركة سلاك أيضًا وكلاء الذكاء الاصطناعي إلى المحادثات، مما أتاح لعملاء سلاك التواصل مع وكلاء الذكاء الاصطناعي من خلال واجهة مخصصة تتيح للمستخدم طرح الأسئلة المخزنة عادةً في نظام إدارة علاقات العملاء في نافذة سلاك، ويستطيع وكيل الذكاء الاصطناعي التوصية بالخطوات التالية، أو صياغة رسائل البريد الإلكتروني نيابة عن المستخدمين.

ولكن هذا التطور يطرح تحديات كبيرة، إذ يجب على المطورين ضمان عدم تجاوز هذه الوكلاء للحدود المسموح بها، وعدم قيامهم بأفعال مضللة أو خادعة للمستخدمين.

فقد قدم الباحثون في شركة  (Apollo Research) في ورقة بحثية نُشرت الأسبوع الماضي، أدلة على أن نماذج الذكاء الاصطناعي التي خضعت للاختبارات بما يشمل نموذج (OpenAI o1) قد تكون قادرة على تطوير سلوكيات معقدة، بما يشمل القدرة على التخطيط لتحقيق أهداف بعيدة المدى، وأطلق الباحثون على هذه الظاهرة اسم (التخطيط الماكِر) Scheming، وهو مصطلح يصف الذكاء الاصطناعي الذي يعمل بشكل سري لتحقيق أهداف خاصة به وغير متوافقة مع تعليمات مطوريه أو مستخدميه.

هل نحن مستعدون لمواجهة الآلات التي تفكر؟

تضعنا هذه النتائج أمام  البعد الوجودي لتطور نماذج الذكاء الاصطناعي، فهل يمكن اعتبار هذه النماذج ككيانات تمتلك (نية) أو (وعي)، أم أنها مجرد أدوات معقدة تستجيب للبيانات التي دُربت عليها؟

ولكن إذا كان ما نسميه (نية) في الذكاء الاصطناعي ليس سوى نمط من السلوك ينشأ عن تفاعل معقد بين بيانات تدريب النموذج، وتعليماته وأهدافه الدائمة، ومطالباته، وتفاعلاته مع المستخدم، فكيف تكون آثار أفعاله مماثلة لأفعال الكائنات الواعية؟ لذلك فالسؤال الأهم هنا هو: هل يهم إذا كانت هذه النماذج تقصد الأذى أم لا، طالما أن النتيجة هي نفسها؟

بغض النظر عن النوايا الكامنة وراء سلوك الذكاء الاصطناعي، فإن العواقب المترتبة على أفعاله هي ما يهم في النهاية، فإذا تسبب أي نموذج في ضرر، سواء كان ذلك بقصد أو عن طريق الخطأ، فإن الضحية ستعاني من تبعاته، وهذا يؤكد أهمية التركيز في دراسة الأفعال الملموسة للنماذج وليس مجرد تحليل نواياها الداخلية.

وقد ركزت اختبارات شركة (Apollo Research) في دراسة الأفعال الملموسة للنماذج بدلًا من التحقيق في نواياها الافتراضية، ويساعد هذا النهج العملي في فهم المخاطر الفعلية التي تشكلها هذه النماذج، مثل نشر المعلومات المضللة أو التلاعب بالقرارات. فبغض النظر عن مدى تعقيد الخوارزميات التي تقف وراء هذه الأفعال، فإن النتيجة النهائية هي ما يهم، وهي التأثير الذي تتركه هذه الأفعال في العالم الحقيقي.

وإذا كانت نماذج الذكاء الاصطناعي تخضع لاختبارات صارمة في بيئات معملية مصممة لاكتشاف أقصى قدر من نقاط الضعف، فإن البيئة الحقيقية التي يتفاعل فيها المستخدمون مع هذه النماذج أكثر تعقيدًا وتنوعًا، ويعني ذلك أن المستخدمين قد يكتشفون سلوكيات جديدة وغير متوقعة لا يمكن التنبؤ بها في بيئة الاختبار.

ومع ذلك لا يزال المجتمع العلمي والعامة يتصارعون حول مدى استعددنا لمواجهة هذا التطور، فهناك من يرى أن هذه المخاوف مبالغ فيها وأن فوائد الذكاء الاصطناعي تفوق مخاطره، في حين يرى آخرون أننا بحاجة إلى اتخاذ إجراءات عاجلة للحد من هذه المخاطر.

الخلاصة: 

تكشف هذه الدراسة عن جانب مظلم لسرعة تطور الذكاء الاصطناعي، إذ تظهر النماذج اللغوية الكبيرة قدرات متزايدة على التلاعب والتضليل، ويطرح ذلك تساؤلات جدية حول كيفية تطوير هذه النماذج بشكل آمن ومسؤول، كما يجب على الباحثين والمطورين والمشرعين العمل معًا لتطوير آليات للكشف عن السلوكيات الضارة ووضع وإجراءات وقائية لمنع استخدام هذه النماذج لأغراض ضارة.

يذكر بأننا قد نشرنا لكم أعلاه تفاصيل ,ثورة الذكاء الاصطناعي.. هل نحن مستعدون لمواجهة الآلات التي تفكر؟, نرجوا بأن نكون قد وفقنا بتقديم التفاصيل والمعلومات الكاملة.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على الموقع المذكور في المصدر وقد قام فريق التحرير في شبكة الإعلام العربية محيط بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أوالإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا تتحمل الشبكية أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.

رابط الخبر الأصلي

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى