بمجرد وصول AI

بمجرد وصول AI

يتم إلقاء الضوء على مصابيح LED في رف الخادم في مركز البيانات.

صورة التحالف | صورة التحالف | غيتي الصور

عندما تم الإبلاغ عن الشهر الماضي أن كلود من الأنثروبور كان اللجوء إلى الابتزاز وغيرها من تقنيات الحفاظ على الذات لتجنب الإغلاق ، أطفأت أجراس الإنذار في مجتمع الذكاء الاصطناعي.

يقول الباحثون البشريون إن صنع نموذج هو سوء المعاملة (“عدم الامتثال” في اللغة الصناعية) هو جزء منها أكثر أمانًا. ومع ذلك ، تطرح حلقات كلود السؤال: هل هناك أي طريقة لإيقاف منظمة العفو الدولية بعد تجاوز عتبة أكثر ذكاءً من الناس أو إلى نحو ذلك؟

AI ، مع مراكز البيانات الواسعة النطاق وقدرتها على إنتاج محادثات معقدة ، تتجاوز بالفعل نقطة الفشل المادي أو “قتل مفتاح” – فكرة أنه يمكن ببساطة استبعادها كوسيلة لمنع أي قوة.

القوة التي ستكون مهمة ، وفقًا لرجل يعتبر “عرابًا منظمة العفو الدولية” هي قوة الإقناع. عندما تصل التكنولوجيا إلى نقطة معينة ، يجب أن نقنع الذكاء الاصطناعي بأن أفضل مهنة تحمي الإنسانية ، بينما يتم الاحتفاظ بها من القدرة على إقناع الناس بخلاف ذلك.

وقال جامعة تورنتو جيفري هينتون ، الذي عمل على جوجل في عام 2023 ، “إذا أصبح الأمر أكثر ذكاءً منا ، فسيصبح أفضل بكثير من أي شخص يضمن لنا.

وقال هينتون: “لم يهاجم ترامب الكابيتول ، لكنه أقنع الناس بالقيام بذلك”. “في مرحلة ما ، أصبحت المشكلة اختراعًا أقل لمفتاح القتل ، والمزيد عن قوة الإقناع”.

وقال هينتون إن إقناع المهارات هو أن الذكاء الاصطناعي أصبح أكثر مهارة في الاستخدام ، وقد لا تكون الإنسانية جاهزة لذلك. وقال “لقد اعتدنا على أن نكون أكثر الأشياء ذكاءً”.

وصف هينتون السيناريو الذي يعادل فيه الناس ثلاثة أعوام في الحضانة ، ويتم تضمين مفتاح كبير. يطلب منك ثلاثة أعوام أخرى أن تقوم بإيقاف تشغيله ، ولكن بعد ذلك يأتي البالغون ويخبرك أنك لن تضطر أبدًا إلى تناول بروكولاس مرة أخرى إذا تركت المفتاح.

وقال “علينا أن نواجه حقيقة أن الذكاء الاصطناعى ستصبح أكثر ذكاءً منا”. وأضاف: “من أملنا الوحيدون أن يجعلنا لا نريد أن نلحق الأذى بنا. إذا أرادوا أن نجعلنا ، انتهى بنا المطاف. علينا أن نجعلهم حميدين ، وهذا ما يجب أن نركز عليه”.

هناك بعض أوجه التشابه مع الطريقة التي تجمع بها الدول لإدارة الأسلحة النووية التي يمكن تطبيقها على الذكاء الاصطناعي ولكنها ليست مثالية. وقال هينتون: “الأسلحة النووية جيدة فقط لتدمير الأشياء. لكن منظمة العفو الدولية ليست هكذا ، يمكن أن تكون قوة ضخمة للخير والسيئة”. يمكن أن تكون قدرتها على تحطيم البيانات في مجالات مثل الرعاية الصحية والتعليم مفيدة للغاية ، والتي يقول إنه يجب أن تزيد من التركيز بين قادة العالم بالتعاون من أجل أن تصبح الذكاء الاصطناعى وظيفيًا جيدًا ويضع تدابير وقائية.

وقال هينتون: “لا نعرف ما إذا كان هذا ممكنًا ، لكن سيكون من المؤسف أن الإنسانية انقرضت لأننا لم نحاول معرفة ذلك”. وهو يعتقد أن هناك فرصة ملحوظة من 10 ٪ إلى 20 ٪ لتوليها إذا لم يتمكن الناس من إيجاد طريقة للقيام بذلك حميدة.

جيفري هينتون ، العراب AI ، جامعة تورنتو ، على المسرح المركزي خلال اليوم الثاني من التصادم 2023 في مركز Enercare في تورنتو ، كندا.

رامزي كاردي | Sportsfile | غيتي الصور

يقول الخبراء إن تدابير الحماية من الذكاء الاصطناعى الأخرى يمكن تنفيذها ، لكن منظمة العفو الدولية ستبدأ أيضًا في التدريب عليها. بمعنى آخر ، يصبح كل مقياس أمان تم تنفيذه بيانات عن التدريب للتخطي ، وتغيير ديناميات التحكم.

وقال ديف ناغ ، مؤسس منصة AICHE AI QueryPal: “إن فعل البناء في آليات الاستبعاد يعلم هذه الأنظمة كيفية مقاومتها”. في هذا المعنى ، سيكون منظمة العفو الدولية بمثابة فيروس تمتم بقاح. وقال ناغ “إنه مثل التطور في Fast Forward”. “نحن لا ندير الأدوات السلبية ؛ نحن نتفاوض مع الكيانات التي تصمم محاولاتنا للسيطرة عليها ونتكيف معها.”

هناك تدابير أكثر تطرفًا مقترحة للتوقف كما في حالات الطوارئ. على سبيل المثال ، هجوم من الدافع الكهرومغناطيسي (EMP) ، والذي يتضمن الاستخدام الإشعاع الكهرومغناطيسي تلف الأجهزة الإلكترونية ومصادر الطاقة. كما تمت مناقشة فكرة قصف البيانات وقطع الشبكات الكهربائية من الناحية الفنية ، ولكنها حاليًا منافسة عملية وسياسية.

من ناحية ، فإن التدمير المنسق لمراكز البيانات يتطلب ضربات متزامنة في العشرات من البلدان ، والتي يمكن لأي منها رفض واكتساب ميزة استراتيجية كبيرة.

وقال إيغور ترونوف ، مؤسس AI Atlantix: “إن نفخ مراكز البيانات هو خيال علمي رائع. ولكن في العالم الحقيقي ، لن يكون أخطر AIS في مكان واحد-لن يكون في كل مكان ولا يوجد أي مكان ، يتم لصقه على نسيج الأعمال والسياسات والأنظمة الاجتماعية. هذه نقطة تحول يجب أن نتحدث عنها حقًا”.

بحيث يمكن لأي محاولة لوقف الذكاء الاصطناعي تدمير الإنسانية

قد تكون الأزمة الإنسانية التي ستكون في الأساس محاولة سيارة إسعاف هائلة.

وقال ناج: “من شأن انفجار EMP القاري أن يوقف حقًا أنظمة الذكاء الاصطناعي ، إلى جانب كل مشجع في المستشفى ، ومصنع تنقية المياه وإمدادات الثلاجة في مداها”. “حتى لو كان بإمكاننا تنسيقنا بطريقة أو بأخرى على مستوى العالم لإغلاق جميع شبكات الطاقة غدًا ، فإننا نواجه الكوارث الإنسانية الحالية: بدون تبريد الطعام ، دون معدات طبية ، دون أنظمة اتصال.”

لم يتم بناء الأنظمة الموزعة مع التكرار لمقاومة الفشل الطبيعي ؛ وقاوموا بطبيعته الاستبعاد المتعمد. يمكن أن يصبح كل نظام أمان ، أي تكرار تم تصميمه للموثوقية ، متجهًا للمثابرة من الذكاء الاصطناعى الممتاز الذي يعتمد بعمق على نفس البنية التحتية التي نبقى عليها. يمر الذكاء الاصطناعى الحديثة بآلاف الخوادم التي تمتد في القارات ، مع أنظمة الرفض التلقائية التي تتعامل مع أي محاولة لاستبعادها كضربة في المسار.

وقال ناغ: “تم تصميم الإنترنت في الأصل للبقاء على قيد الحياة من الحرب النووية ؛ يعني هذا الهندسة المعمارية نفسها الآن أن نظام Superintelime يمكن أن يستمر إذا لم نكن مستعدين لتدمير البنية التحتية للحضارة ،” إن أي تدابير متطرفة بما يكفي لضمان إطفاء الذكاء الاصطناعى -من شأنه أن يتسبب في معاناة بشرية واضحة من ما نحاول منعه “.

مقارنة عناصر التحكم في الذكاء الاصطناعي مع المواقع النووية: الرنين المغناطيسي الوظيفي. عضو في لجنة Openi Hurd للإشراف المطلوب من أجل الذكاء الاصطناعي

الباحثون الأنثروبريون متفائلون بحذر من أن المهمة التي يقومون بها اليوم – والتي تضم الابتزاز في كلود في سيناريوهات مصممة خصيصًا للقيام بذلك – ستساعدهم على منع تنزيل الذكاء الاصطناعي غدًا.

وقال كيفن تروي ، الباحث الذي يعاني من أنثروبور: “من الصعب التنبؤ بأننا سنصل إلى مثل هذا المكان ، لكنه ينتقد اختبار الإجهاد فيما نضطه ، ونرى كيف يفعلون ذلك واستخدامه كنوع من الحماية”.

يقول بنيامين رايت الباحث الأنثروبري بنيامين رايت إن تهدف إلى تجنب النقطة التي يتحكم فيها الوكلاء دون سيطرة بشرية. وقال “إذا وصلت إلى هذه النقطة ، فقد فقد الناس بالفعل السيطرة ويجب أن نحاول عدم الوصول إلى هذا المنصب”.

يقول ترونوف إن السيطرة على الذكاء الاصطناعي هي مسألة الإدارة أكثر من مجهود مادي. وقال ترونوف: “نحتاج إلى قتل مفاتيح ليس من أجل الذكاء الاصطناعى نفسه ، ولكن بالنسبة للعمليات التجارية والشبكات والأنظمة التي تعزز وصولها” ، أضاف أنه يعني عزل عزل الذكاء الاصطناعي من السيطرة المباشرة على البنية التحتية الحرجة.

اليوم ، لن ستجعل أي نموذج من AI في مجال AI أو وكالة GPT-NOT الخاصة بـ AI ، أو النية أو الحفاظ على الذات بالطريقة التي يعيشون بها.

“ما يبدو وكأنه” تخريب “هو عادة مجموعة معقدة من السلوكيات الناشئة عن الحوافز غير المحاذاة بشكل سيئ ، أو تعليمات غير واضحة ، أو النماذج المفرطة في التحول. إنها ليست HAL 9000” ، قال ترونوف ، في إشارة إلى نظام الكمبيوتر في “2001” ، العلمي العلمي كلاسيكي. وأضاف “إنه أشبه بتدريب واثق دون السياق والوصول إلى الرموز النووية”.

كانت عيون هينتون هي المستقبل الذي ساعده في الخلق. يقول إنه لم يصادف كتل بناء منظمة العفو الدولية ، وسيكون شخص آخر. وعلى الرغم من كل المحاولات التي بذلها هو وغيرها من المتنبئين للعب ما قد يحدث لمنظمة العفو الدولية ، لا توجد طريقة لمعرفة ذلك بأمان.

وقال هينتون: “لا أحد لديه فكرة. لم يكن علينا أبدًا التعامل مع الأشياء أكثر ذكاءً منا”.

ولدى سؤاله عما إذا كان يشعر بالقلق إزاء المستقبل الذي تسبب في الذكاء الاصطناعى ، والذي يمكن لأطفال المدارس الابتدائية اليوم مواجهته في يوم من الأيام ، أجاب: “أطفالي يبلغون من العمر 34 و 36 عامًا ، وأنا أهتم بمستقبلهم”.

المراجع المصدرية

You might also like