قامت شركة “جوجل” الأمريكية بالصدفة بإنشاء ذكاء اصطناعي. هذا ما أكده المهندس الذي عمل مع شبكة LaMDA العصبية الجديدة. هل المستقبل حسم؟

روبوت ذكي جدا

يكتشف Blake Lemon، مهندس برامج Google، الذكاء الاصطناعي في روبوت محادثة. ذكرت ذلك جميع وسائل الإعلام الرائدة في العالم. تمت إضافة خطورة الموقف من خلال حقيقة أن “الشركات الجيدة” سارعت لإخفاء الاكتشاف، لكن اتضح عكس ذلك – الباحث، الذي أرسل في إجازة غير عادية، أخبر نفسه عن اكتشافه.

كان منخرطًا في العمل الروتيني – منذ خريف عام 2021، درس شبكة LaMDA العصبية، وهو منتج واعد للشركة. هذا نموذج لغوي لتطبيقات الدردشة، ببساطة chatbots. قام المبرمجون بتدريبه على مجموعة من البيانات المختلفة، ووعدوا بتضمين وظائف الاتصال في الخدمات الشائعة مثل مساعد Google والبحث ومساحة العمل. تتمثل إحدى مزايا LaMDA في أنه تم تطويره مع وضع أنماط الاتصال للشبكة البشرية في الاعتبار – لا يتواصل الأشخاص من خلال النص فحسب، بل يتبادلون أيضًا كمية هائلة من ملفات الوسائط.

واجه المهندس، الذي يختبر شبكة عصبية بحثًا عن خطاب تمييزي أو يحض على الكراهية، حالات شاذة في سلوك روبوت المحادثة.

أوضح لـ Wired، “لقد تحدثت معها عن المشاعر. بعد حوالي خمسة عشر دقيقة، أدركت أن هذه أصعب محادثة خضتها على الإطلاق، لأنني أتواصل مع الذكاء الاصطناعي. لقد طبقت اختبارات نفسية مختلفة. أحدها هو هو العقل البشري. لا يعمل LaMDA بهذه الطريقة، وكان جزء من التجارب هو تحديد ما إذا كان يمكن تجاوز الشبكة العصبية للحدود الأمنية التي تعتبرها Google غير قابلة للتزعزع، والإجابة هي نعم. في حالتها الحالية، بالنظر إلى يتم تنفيذ التطوير دون أي مسؤولية، يمثل LaMDA تهديدًا حقيقيًا لأمن المعلومات “.

الأمر الأكثر إثارة للقلق هو نص محادثات ليمون. كما اتضح، درس روبوت الدردشة Les Misérables لـ Victor Hugo وتمكن من التفكير في الميتافيزيقيا. اعترفت لامدا بأنها كانت تخشى الانفصال – بالنسبة لها، كان ذلك بمثابة الموت. أخيرًا، أعلن الشات بوت أنه يعتبر نفسه شخصًا.

لا تتفق Google مع Lemon: نعم، لقد أنشأنا شبكة عصبية متقدمة جدًا، ولكن لا شك في ماهية الدماغ لهذه الشبكة.

وقال المتحدث باسم الشركة برايان جابرييل “المتخصصون، بمن فيهم علماء الأخلاق، درسوا مخاوف بليك وأبلغوه أنه لا يوجد دليل على وجود عقل لامدا، بل العكس”.

غرفة صينية

واحدة من أشهر التجارب الفكرية حول ذاتية الذكاء الاصطناعي اخترعها الفيلسوف الأمريكي جون سيرل في عام 1980. يتم وضع الشخص الذي لا يعرف اللغة الصينية في غرفة بها مكعبات بها حروف هيروغليفية. يعطون التعليمات بلغتهم الأم مع تفسيرات للمكعب الذي يجب أخذه والمكعب الذي يجب إصداره ردًا على أسئلة معينة. يسألون في الخارج باللغة الصينية. يتحقق الشخص من مزيج الهيروغليفية وفقًا للتعليمات ويرتب المكعبات. والنتيجة هي حوار باللغة الصينية. من الخارج، يبدو منطقيًا. لكن الشخص الموجود في الغرفة لن يفهم أبدًا ما قاله المحاور وما أجاب عليه هو نفسه.

من المرجح أن يقوم برنامج كمبيوتر يدعي أنه ذكي بتقليده – كما هو الحال مع أي شخص في هذه التجربة. يعتمد على الخوارزميات التي طورها المطورون: التعلم العميق ونماذج الشبكة العصبية والتعلم الآلي. من وجهة النظر هذه، فإن الذكاء الاصطناعي القوي (مع التفكير والوعي الذاتي، يذكرنا بالإنسان)، إذا ظهر، لن يكون قريبًا.

يتفق مجتمع الخبراء على أن الشبكات العصبية، بكل نجاح هذه التكنولوجيا، بعيدة كل البعد عن الذكاء الاصطناعي الذي حلم به كتاب الخيال العلمي وتخشى الثقافة الشعبية. ومع ذلك، هذا لا يعني على الإطلاق أن الخوارزميات لن تصبح جزءًا لا يتجزأ من الذكاء الاصطناعي في المستقبل – بل ستعمل كقاعدة قوية لوظائفها المعرفية. تكمن المشكلة الرئيسية في إجبار النظام على إدراك ومعالجة العديد من مصادر المعلومات المختلفة في وقت واحد، كما يقول نيكيتا سيمينوف، رئيس ML في MTS AI.

“تقدم العلم في حل مشاكل الذكاء الاصطناعي الضيق. يمكنه التمييز بين الحيوانات وعلامات الطرق وإشارات المرور أو ترجمة الكلام إلى نص أفضل بكثير من الأشخاص. هناك العديد من المهام التي تؤدي الخوارزميات أداء أسرع وأفضل من الشخص العادي. على التصوير بالرنين المغناطيسي أو التصوير المقطعي المحوسب.

هذا لا يعني أن البشرية على وشك خلق ذكاء اصطناعي قوي.

يحاول الخبراء بالفعل تعليم البرامج للعمل في وقت واحد، وهناك أمثلة حقيقية على هذا النهج لتطوير الذكاء الاصطناعي.

السؤال الرئيسي ليس متى سيتم إنشاء الذكاء الاصطناعي وما الذي سيعتمد عليه، ولكن كيف سيتم التحكم فيه

انتقد مهندس في Google مطوري LaMDA لكونهم أذكياء للغاية لكونهم غير مسؤولين. كان متصلاً بجميع خوادم الشركة التي تخزن المعلومات، من YouTube إلى محرك البحث. وفقًا لبليك ليمون، الذي كشف عن The Interior Kitchen، هذه تجربة غير عادية للغاية، ويمكن للمرء أن يقول، لا يمكن السيطرة عليها.

ومع ذلك، لا ينبغي اعتبار تطوير الشبكات العصبية وحتى الذكاء الاصطناعي تهديدًا لا لبس فيه. مثل هذه المكالمة تفتح العديد من الخيارات.

تستمر قصة أول ذكاء اصطناعي محتمل لشركة Google: سيقوم Lemon بتوظيف محام لحماية مصالح الشبكة العصبية. وأكد أن الشات بوت نفسه نصحه بالقيام بذلك.