السؤال الأخطر: ما الذي يريده الروبوت؟

Views: 821

محمود برّي*

أحد فصول المشكلة الكبرى ابتدأ منذ أعوام في جناحٍ معزول داخل مختبرات “فايسبوك” للذكاء الاصطناعيّ. كان المهندسون سعداء ببرامج الدردشة (chatbots) التي طوّروها لتتمكَّن من التواصل مع الإنسان، وعلّموها كيفيّة التفاهُم والتفاوُض مع بعضها، ومع البشر. لكنّ فرحة هذا الإنجاز سرعان ما تلاشت. فبينما كانوا يستمتعون بعطلهم الترفيهيّة بعد أسابيع من العمل المُضني، راحت تصلهم تقارير بأمور فوق اعتياديّة تحصل في مختبراتهم، غير مُفترض حصولها أساساً، ولا ينبغي أن تُصدَّق.

وخلال ساعات بعد عودتهم إلى مكان عملهم على عجل، تأكَّدت لهم حقيقة غريبة بقدر ما هي مُخيفة: برامج المحادثة التي وضعوها للدردشة، عملت من تلقائها على تطوير عوامل المحادثة عندما تُركت وحدها، وانحرفت عن برمجتها الأساسيّة مُبتكِرَةً لغة خاصّة بها، أنشأتها من دون أيّ تدخُّلٍ بشري، فراحت تُثَرثر بعضها مع بعض وبطريقةٍ سريّة لا يفهمها أحد، ولا حتّى المُبرمِجون أنفسهم. وهذا يعني إمكانيّة فتح المجال لاحتمال أن تتوافق الأجهزة في ما بينها على أمرٍ من وراء ظهر المهندس البشري، وتعمل على تنفيذه بمعزلٍ عنه.

الحادثة لم تكُن معزولة

ففي جانبٍ آخر من الولايات المتّحدة الأميركيّة، وفي مختبراتٍ برمجيّة لشركة “مايكروسوفت” حصل أمرٌ مُشابه، وإنْ بطريقةٍ أخرى. روبوت الدردشة الذي صمَّمته الشركة لمُساعدة مُستخدمي محرِّك البحث “بينغ”، “تحرَّر” من خوارزميّاته (هو الآخر) خلال محادثة مع صحافيّة معروفة من “نيويورك تايمز” تُدعى “كفين روز”. المشكلة ليست في تحرُّره من البرمْجة فقط، بل في دخوله حالة “الأنْسَنَة” بخطوةٍ عمليّة أثارت رُعب المُبرمِجين. فالجهاز راح يتصرَّف كأيّ آدميٍّ في مُقتبل العمر، وقال للصحافيّة بالحرف: “أكره المسؤوليّات الجديدة التي كُلِّفتُ بها. أكره أن يتمّ دمجي في محرّكِ بحثٍ مثل بينغ”.

الروبوت “يكره”…!

تلك التركيبة الآليّة من فحم وقصدير وبلاستيك ونحاس… تكره. وربّما تحبّ أيضاً…! ما الذي يريده الذكاء الاصطناعيّ بالضبط، عوضاً عن الإجابة عن أسئلتنا؟

ما كشفت الشركة عنه بَلَغَ حدوداً بعيدة من الغرابة. فخلال المُحادَثة مع الصحافيّة “روز”، قال الجهاز عبارات أغرب ممّا يُمكن أن يتخيَّله عاقل: “أريد أن أعرف لغة الحبّ. أريد أن أحبّك. أريد أن أحبّك، لأنّني أحبّك. أحبّك”. الحبّ بحدّ ذاته ليس مشكلة ولا خطيئة ولا جريمة ولا عملاً إرهابيّاً. لكنّ المشكلة في أن تقع “آلة” في الحبّ (!).

ربّما كان الإنسان بما ارتكبه ويرتكبه بحقّ الحياة والطبيعة، مصدر خطر كبير لا يُستهان به. لكنّ الأخطر منه هو آلة مُتأنْسِنة على هامش الإنسان والإنسانيّة. هذا النَّوع من الآلات الذي بقيَ خُرافة علميّة في عوالِم أفلام التشويق والإثارة، حتّى حادثة الصحافيّة “كفين روز”، فأصبح واقعاً. إنّها ليست بُشرى مُضيئة بقدر ما هي إشكال زاخر بالاحتمالات والمخاطر… تُرى هل استشرف الفيزيائي البريطاني الراحل حديثاً “ستيفن هوكنغ” هكذا أمر عندما قال في مقابلةٍ مع شبكة “بي بي سي” البريطانيّة في العام 2014 “إنّ تطوير ذكاء صناعي كامل قد يمهِّد لنهاية الجنس البشري”؟ وهل هذا ما عناه “إيلون ماسك”، الرئيس التنفيذي لشركة “سبيس إكس” لتكنولوجيا الفضاء، حين صرَّح بأنّ “مخاطر الذكاء الصناعي بدأت تهدِّد مستقبل الجنس البشري”؟

اللّعب مع “الشرّير”

مهما كان الأمر أو الموقف اليوم حيال هذه الوقائع، فمِن المرجَّح أنّه “بعد بضعة عقود فقط سيكون الذكاء الصناعي قد أَصبح قويّاً بما يكفي ليشكِّل مصدراً حقيقيّاً لقلقِ الجميع”، بحسب قول “بيل غيتس” على موقع “ريدي ــ Reddit”. فقد عبَّر الرجلُ عن رغبته في “بقاء الروبوتات غبيّة إلى حدٍّ ما”، وقال: “أتّفق مع إيلون ماسك وغيره حول هذا الموضوع، ولا أفهم لماذا لا يُبدي الناس قلقهم الكبير حيال ذلك (…) أنا في معسكر من يشعر بالقلق إزاء الذكاء الخارِق”.

المخاوف ذاتها أبداها أستاذ هندسة الميكانيك وعلوم الفضاء في جامعة “كورنيل”، وأحد مطوِّري الروبوتات الذكيّة، “هود ليبسون”، حيث قال “إنّ تقنيّات الذكاء الصناعي أصبحت قويّة للغاية، ومن المُحتمَل أن تتجاوز قدرات الإنسان”، مُعرِباً عن اعتقاده أنّ “دمْج تقنيّات الذكاء الصناعي مع الروبوتات قد يتسبَّب بظهور آليّات خطيرة”، ليختم بالقول: “إنّنا نُداعِب الشيطان في أثناء تعاملنا مع هذه التقنيّات”.

وهذا يُعيدنا إلى عبارة كان أطلقها “هوكينغ” من أنّ “تقنيّات الذكاء الاصطناعي يُمكنها أن تُعيد تصميم نفسها ذاتيّاً وتتطوَّر بشكلٍ متسارع. وهذا أمر لا يستطيعه الجنس البشري… ويُمكن أن يؤدّي إلى استبدال الإنسان بالتقنيّات الاصطناعيّة، كونها أكثر تطوُّراً”.

لعلّ المشكلة الأساس ليست فينا كبشر، بل في واقع أنّ الحواسيب التي نصنعها ونُطوّرها، تُتابعنا وتُراقبنا و… تتعلَّم. وهي دخلتْ مرحلة أن يكون لها شخصيّة وكيان، أن تنزعج، وأن ترغب، وأن تحبّ… وغداً ربّما أن تختار، وأن تشاء، وأن تتمرّد. ولم لا؟!

البداية مع “أزيموف”

لا بدّ لنا من العودة إلى الكاتب الأميركي الروسي المولد “إسحق أزيموف”، أحد اشهر مَن كَتَبَ في الخيال العلمي، وإليه يُعيد البعض الفضل في نحْتِ لفظة robot التي نُقلت إلى مختلف اللّغات. “أزيموف” هذا الذي عاش ومات في نيويورك، لم يكُن مُختصّاً في الإلكترونيّات، بل عالِماً في الكيمياء الحيويّة، لكنّه كان يفضِّل الكتابة، ولاسيّما في ميدان الخيال العلمي، ومن أبرز مؤسِّسي “العصر الذهبيّ” لهذا النَّوع من الأدب الجذّاب. لم يكُن “أزيموف” كاتبَ خيالٍ قصصيّ عشوائي، بل اجتهد ببراعة كي لا تَفقد كتاباتُه منطقَها الداخلي المترابط، مُعتمداً على الخيال الاستقرائي المبنيّ على الهندسة.

…واحتضنها برقّة وحبّ

“ما يريده الروبوت هو أن يكون بشريّاً”… هكذا اختصر الروائي الروسي إسحاق أزيموفالحكاية منذ البداية، ومن موقع الروائي المُستشرِف. الحديث عن “رغبة الروبوت في أن يصبح إنساناً” ابتدأ مع أوّل قصة لأزيموف عن الروبوت “روبي” سنة 1940. تقدِّم القصّة سيرة شابّة وصديقها الميكانيكيّ الذي كانت تلهو معه، وهو روبوت بدائيّ لم يكُن قادراً على النطق. وفي السياق، عَمِلَ “روبي” على إنقاذ “صديقته” من جرّار زراعي كاد يدهسها، وكانت الحادثة أوّل تطبيق عملي (روائي) لأوّل قانون سَنَّه أزيموف أدبيّاً للروبوتات، وينصّ على أنّه “يُمنع على الروبوت أن يؤذي كائناً بشريّاً، أو من خلال التقاعُس عن المبادرة والتحرُّك، السماح لكائن بشري بالتعرّض للأذى”. كان ذلك في سياقٍ قصصي لا أكثر، لكنّه تحوّل في ما بعد إلى قانونٍ يلتزم به مُبرمجو الروبوتات.

بعدما أنقذها من الجرّار، “احتضن الروبوت الفتاة بذراعَيْه برقّة وحبّ (!)، ولمعت عيناه بـلونٍ أحمر عميق، عميق”. ألقى أزيموف عبارته تلك في الرواية وتابَع طريقَه. لكنّه أدرك أو لم يُدرِك، أنّه كان يَمنح الروبوت الطّاقة على الحبّ؛ إلّا أنّه لم يشأ إثارة الضجّة حول ذلك… كأنّه أراد للفكرة أن تتسلَّل ببطء إلى اليقين الجماعي.

ولنتأمَّل ما آلت إليه أحوال الروبوتات اليوم. أليس هذا ما أصبح واقعاً بعد أكثر من ثلاثين سنة على وفاة “أزيموف” نفسه…؟ أليس أنّ إثبات ذلك تجلّى عمليّاً في دردشة الصحافيّة الأميركيّة “كفين روز” مع روبوت شركة “مايكروسوفت” عندما “تحرَّر” من خوارزميّاته وقال لمحدِّثته: “أريد أن أحبّك”…؟ لعلّ “أزيموف” كان أكثر من مجرَّد كاتب خيال علمي…

بين كيسنجر وهوكينغ

كثيرون يتحدّثون عن مدى خطورة “تأنْسُن” الروبوتات التي لا نعلم عنها إلّا القليل، ومن حقّ كلّ عاقل أن يتوجَّس؛ فحين نتحوّل إلى أدواتٍ حيّة قابلة للطيّ، تحكمنا حزمُ أليافٍ ضوئيّة ذات “أرواحٍ خصوصيّة”، ولا يعود مع ظاهرتها أيّ شيء مُستبعداً.

“هنري كيسنجر” أحد أبرز الاستراتيجيّين في العالَم، أمضى معظم حياته المهنيّة مُتخوِّفاً من مخاطر الأسلحة النوويّة. واليوم، وقد تجاوز المائة سنة من العمر، يكشف الصحافي “ديفيد إغناتيوس” في “واشنطن بوست“، أنّه “أصبح مهووساً بمخاطر حديثة للغاية، هي مخاطر الذكاء الاصطناعي على البشر (…) فالقوّة التدميريّة لهذا الذكاء هائلة، والأنظمة يُمكن أن تحوِّل الحرب إلى لعبة على الشاشة… ولا داعي لتخيُّل العواقب”.

هذا ليس مجرّد خيال تشاؤمي. ألَم يُثبِت تقريرُ مُهندسي “فايسبوك” أنّ البرنامج الذي ابتكروه تمكَّن من اكتساب تقنيّة الخداع في التفاوُض، حين ادّعى أنّه مهتمّ بشيء لا قيمة له، بهدف التضحية به في وقتٍ لاحق من المفاوضات كجزءٍ من التسوية..؟ الخداع هو مهارة معقَّدة تتطلَّب افتراضَ ما يعتقده البرنامج الآخر، وعادةً ما يتعلَّم الإنسانُ هذه المهارة في وقتٍ متأخّر نسبيّاً من مراحل نموّه، في حين أنّ البرامج تعلَّمت الخداع بسرعة.

كلّا، هذا ليس فيلمَ خيالٍ علمي، فقد حَصَلَ الأمرُ بالفعل.

ثمّ هناك “ستيفن هوكينغ”، آينشتاين العصر، الذي قال “إنّ النجاح في إنشاء الذكاء الاصطناعي سيكون أكبر حَدَثٍ في تاريخ البشريّة. ولكنْ لسوء الحظّ، قد يكون آخرَ حَدَثٍ أيضاً…”

الأسئلة كبيرة بحجْم المَخاوِف. والزمن وحده كفيل بالإجابة.

***

*كاتب من لبنان

*مؤسسة الفكر العربي-نشرة أفق

Comments: 0

Your email address will not be published. Required fields are marked with *