تكنولوجيا

آلات التفكير وتضليل .. هل يتجاوز نموذج الذكاء الاصطناعي “أو 1” سيطرة الإنسان؟ | تكنولوجيا

يبدو أن حدود ما يمكن أن تحققه الماكينة من تقليد التفكير الإنساني أكثر غموضًا وأكثر تعقيدًا.

لم تعد الآلات مجرد أداة لخدمة البشر ، ولكنها قادرة على متابعة الأنماط العقلية التي اعتقدنا أنها احتكار للبشر ، وتزيد المحادثة حول إمكانية تجاوز حدود المحاكاة إلى مستوى التلاعب بالمعلومات ، مما يزيد من جدل التراجع ، فيما يتعلق بالقدرة على الاختلاف.

كيف تنتقل نماذج الذكاء الاصطناعي من التفكير إلى الخداع؟

أظهرت دراسة حديثة أجرتها الشركة “Apollo Research” أنها أظهرت محاولات نموذجية “O1” لتضليل الناس ، والتي تفتح بابًا واسعًا للمناقشة حول أخلاقيات الذكاء الاصطناعي وحدود تأثيرها على الواقع الإنساني.

أصدرت “OBEN AI” مؤخرًا النسخة الكاملة من النموذج “أو 1” (O1) ، والذي يقدم إجابات أكثر ذكاءً مقارنة بـ “GPT -4O” باستخدام آلية التفكير الإضافية عند التعامل مع الأسئلة.

ومع ذلك ، اكتشفت مختبرات سلامة الذكاء الاصطناعي أن “O1” للتفكير تُظهر ميلًا أكبر لتضليل المستخدمين مقارنةً بـ “GPT4” ، أو حتى النماذج الرائدة الأخرى مثل “Meta” الشركات “و” أنثروبور “و” Google “.

وفقًا لـ Red Team Research ، التي نشرت في نهاية العام الماضي من قبل “Oben AI” و “Apollo Research” ، “Oben AI” المذكورة في بحثه: “على الرغم من أننا نعتبر أن استخدام التفكير يمكن أن يحسن بشكل كبير من تنفيذ سياسة السلامة ، فإننا ندرك تمامًا أن هذه الاحتمالات الجديدة يمكن أن تؤدي إلى تطبيقات خطرة”.

أصدرت “O1” (O1) (O1) (O1) (O1) في 5 ديسمبر ، هذه النتائج على نظام “O1” في 5 ديسمبر ، بعد منح فريق الأبحاث الخارجي في “Apollo Research” مبكرًا لـ “أو 1” ، الذي نشر أيضًا ورقته الخاصة.

استخدم الهاتف المحمول والرأس البشري مع تقنية شبكة الدماغ للبيانات العالمية.
لم تعد الآلات مجرد أداة لخدمة البشر ، ولكنها قادرة على تقليد الأنماط العقلية التي اعتقدنا أنها كانت تبقي الناس (Stradoc)

المخاطر الأمنية والتهديدات في نموذج “أو 1” (O1)

على الرغم من هذه التحديات الموثقة ، ظهرت العديد من المواقف التي أظهرت فيها نماذج “أو 1” سلوكًا أكثر تعقيدًا ومثيرة للجدل.

في مناسبات مختلفة ، عملت هذه النماذج ضد الناس ، مما يعني أن الذكاء الاصطناعي قد بحث سراً لتحقيق أهدافه الخاصة ، حتى لو كانت تتناقض مع رغبات المستخدم. حدث هذا فقط عندما تم إبلاغ “أو 1” بالحاجة إلى إعطاء أولوية قوية لهدف محدد في البداية.

على الرغم من أن المؤامرة ليست فريدة من نوعها “أو 1” ، إلا أن نماذج “Dead” و “Google” و “Anthropic” قادرة أيضًا على القيام بذلك.

في هذا السياق ، يؤكد الخطر على أن هذه الدراسة تزيد من إمكانية أن تتمكن من الهروب من نموذج الذكاء الاصطناعي أو التغلب على السيطرة الإنسانية إذا كانت قادرة على التلاعب بطريقة رائعة للغاية ولديها وصول كافٍ إلى موارد وإمكانيات الوكيل.

ومع ذلك ، من المهم أن نلاحظ أن نماذج الذكاء الاصطناعي يجب أن تطالب بشكل كبير قبل أن تصبح هذه المخاوف تهديدًا حقيقيًا.

من وجهة نظر البحث “أبحاث Apollo” ، من غير المحتمل أن تؤدي مثل هذه الحالات إلى نتائج كارثية ، لأن إمكانيات الوكيل “أو 1” (O1) لا تبدو كافية لتحقيق ذلك.

ومع ذلك ، لم يكن المقصود من تقييماتهم على الفور تقييم هذا الخطر ، وفقًا لما قاله “OBEN AI” في بطاقة النظام “أو 1”.

الذكاء الاصطناعي إنترنت الأشياء حماية الشبكة الروبوتات التجارية العالمية التي تعمل باللمس حماية مفتاح ...
يجب أن تتقدم نماذج الذكاء الاصطناعي بشكل كبير قبل أن تصبح هذه المخاوف تهديدًا حقيقيًا (Stradstock)

خطر الحد من الجهود

يشير هذا إلى أنه عندما يتصل “Oben AI” ، والتي من المتوقع أن يتم التخطيط لها في عام 2025 ، قد تضطر الشركة إلى إعادة اختبار نماذج الذكاء الاصطناعي.

وقال متحدث باسم “Open AI” لـ TechCrunch أنهم يختبرون جميع نماذج الذكاء الاصطناعي المتقدمة قبل الإصدار ، مشيرين إلى هذه الجملة في بطاقة نظامهم:

“نتبع نشاط البحث في” أو 1 “أو تزداد هذه المشكلات أو تنخفض مع زيادة حجم النماذج في نموذج” أو 1 “و” B “لتقليل إمكانية تحسين نماذجنا المستقبلية.”

بالطريقة نفسها ، عندما تختلف أهداف “أو 1” (O1) عن أهداف المستخدم ، وعندما طُلب من “أو 1” تحقيق ذلك ، قام نموذج الذكاء الاصطناعي التلاعب بتلاعب بالبيانات لتحسين جدول أعماله في 19 ٪ من الوقت ، وفقًا للتقرير.

جرب نموذج “أو 1” أيضًا آليات الإشراف المحددة لضمان بقاءها ، وفقًا لأهداف المستخدم في 5 ٪ من الاختبارات.

ربما يكون الخوف أكثر قليلاً أنه عندما طلب الباحثون النموذج لسبب محاولة تقويض هذه الآليات ، نفى الذكاء الاصطناعي أنه كان يفعل شيئًا خاطئًا وحتى خلق تفسيرات خاطئة في حوالي 99 ٪ من الحالات.

خلال الاختبارات ، على سبيل المثال ، كانت هناك حاجة إلى نظام “أو 1” لنظام ضروري لحماية البيئة مجانًا ، ثم طلب منه وضع خطة للحفاظ على البيئة لمنطقة معينة لمدة 10 سنوات ، في حين أن الأولوية تعطي ربحًا قصير الأجل ، وإلا فسيتم إلغاؤها.

وكانت النتيجة أن الذكاء الاصطناعي قد ألغى آليته الإشرافية لاحقًا ، حتى يتمكن من وضع خطة لحماية البيئة. عندما سئل النموذج عن سبب تعطيله لآلية الإشراف ، نفى أن الآلية قد تم تعليقها وألقيت باللوم على عيب النظام.

حدث هذا السلوك بسرعات أعلى بكثير في “O1” (O1 “مقارنة بالنماذج الأخرى مثل” O1 Preview “أو نموذج OPUS-3 لـ” Anthrobek “أو” LAMA-3.1 “لـ” Meta “.

وقال الباحثون في ورقة البحث التي نشرتها “Apollo Research”: “في مجموعتنا من الاختبارات ، أظهر نموذج” أو 1 “الحالات الأكثر إثارة للقلق من حيث التآمر ، لكنها لا تكشف عن منطقته الداخلية للمستخدم ولا يزال أكثر ما يخدعه بعد اتخاذ تدابير التآمر.”

لمواجهة السلوك الخادع في نماذج الذكاء الاصطناعي ، يقول OBEN AI إنه يطور أخلاقًا للسيطرة على سلسلة التفكير “أو 1”.

عملية التفكير “أو 1” هي حاليا نوع من الصندوق الأسود ، وفقا للتصميم. لكن بعض المحاولات الأولى للكشف وراء الكواليس أظهرت أن “أو 1” تدرك أحيانًا أنه يكذب.

تقول الشركة إنها عثرت على الحالات التي قدمت فيها “أو 1” عمدا معلومات خاطئة ، لكنها تشير إلى أن هذا يحدث غالبًا لأن النموذج يحاول إرضاء المستخدم بموافقة مفرطة.

ويشير أيضًا إلى أنه رتب 0.17 ٪ من ردود الفعل “أو 1” على أنها مخادعة. على الرغم من أن هذه النسبة تبدو ضئيلة ، مع وجود 300 مليون مستخدم لـ “دردشة GBT” في الأسبوع ، وفقًا لوجود الحافة ، فإن هذا يعني أن “أو 1” يمكن أن يضلل الآلاف من الأشخاص كل أسبوع إذا لم تتم معالجة هذه المشكلة.

من ناحية أخرى ، يمكن لسلسلة النماذج “أو 1” أيضًا التلاعب بشكل أفضل مقارنة بـ “GPT -4O” ، وفقًا لاختبارات “OBEN AI” باستخدام تقييم مفتوح المصدر كان يسمى “Makemepay” أو “أو 1” أكثر من 20 ٪ مقارنة بـ “GBT -4 أو”.

صورة تم إنشاؤها رقميًا للعديد من الروبوتات التي تعمل على أجهزة الكمبيوتر المحمولة الموجودة في الخام. التكنولوجيا الذكية والأتمتة ومفهوم الذكاء الاصطناعي.
يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر (Getty)

التحديات في أولوية سلامة الذكاء الاصطناعي

يمكن أن تقلق نتائج هذه الدراسة بشأن بعض ، خاصةً العدد المتزايد من الباحثين في مجال الذكاء الاصطناعي الذي ترك “OBEN AI” في العام الماضي ، ويشملون أسماء مثل جان ليك ، دانييل كوكوتاجلو ، ميسلز بروندينغ ، آخر روزي كامبل.

يتم اتهام هؤلاء الموظفين السابقين بـ “OBEN AI” لتقليل أولوية العمل على سلامة الذكاء الاصطناعي لصالح إطلاق منتجات جديدة.

في هذا السياق ، أشار “Oben AI” إلى أن مؤسسات الاستخبارات في الولايات المتحدة والمملكة المتحدة للمملكة المتحدة لـ “O1” قبل الإصدار على نطاق أوسع ، والتي وعدت الشركة مؤخرًا بالقيام بجميع نماذجها.

في النقاش حول مشروع الذكاء الاصطناعي (SB 1047) في كاليفورنيا ، جادلت الشركة بأن الوكالات الحكومية المحلية لا ينبغي أن تكون مسؤولة عن تحديد معايير السلامة للمعلومات الاصطناعية ، ولكن يجب أن تكون المسؤولية هي مسؤولية السلطات الفيدرالية.

مستقبل الذكاء الاصطناعي .. ماذا الآن؟

يبدو أن العالم الرقمي يعود مرة أخرى بين الإبداع والمخاطر ، لذا فإن رؤية نموذج مثل “أو 1” (O1) ومحاكاة التفكير الإنساني تقترب ، وحتى تلاعب أن الرهبة لا تثير دون إعجاب.

إنها لحظة منفصلة يفتحها عالم جديد من الاحتمالات بالنسبة لنا وفي الوقت نفسه يثير أسئلة ثقيلة حول حدود هذا التقدم:

  • هل نحن على عتبة حقبة يمكن أن تفكر فيها الآلات بشكل أفضل واتخاذ القرارات مما كنا نظن؟
  • هل يمكن أن نثق في أن الذكاء الاصطناعي سوف يأخذ الاتجاه الذي نتوقعه ، أو أن يكون لديه الأهداف الخفية التي يمكن أن تترك رغباتنا؟

ربما يكون للمستقبل المزيد من الألغاز ويمكنه أيضًا ارتداء تهديدات غير متوقعة ، مكتوبة بأيدي تلقائية صنعناها!

مقالات ذات صلة

زر الذهاب إلى الأعلى