Site icon IMLebanon

تحذيرات من “انقراض البشرية”!

رغم التحذيرات من مخاطره على وظائف البشر وقدرتهم على الإبداع العلمي والثقافي، وأخيرا من احتمال أن يؤدي إلى “انقراض البشرية”، يحتل الذكاء الاصطناعي عناوين الأخبار وجزءا كبيرا من محادثات المهتمين بالتكنولوجيا وحتى غير المتخصصين في هذا المجال.

مع هذا، لا يكاد يمر يوم من دون انضمام آلاف – إن لم يكن مئات الآلاف – إلى ركب مستخدمي التطبيقات التي يدخل الذكاء الاصطناعي في تصميمها، كما أن شركات التكنولوجيا الكبرى تعلن بشكل مستمر عن تطويرات جديدة هائلة وأدوات جديدة تعظم قدرات خوادم الكومبيوتر على “التفكير” بشكل مستقل، والتعلم من البيئة التي تحيط بها.

والثلاثاء أصدرت مجموعة من خبراء التقنيات والكومبيوتر العالميين، بيانا جديدا طالبوا فيه بـ”العمل على تخفيف خطر انقراض البشرية من جراء الذكاء الاصطناعي”، وجعله “أولوية مع مخاطر أخرى مثل الجائحات والحرب النووية”.

وشملت قائمة الموقعين سام التمان، رئيس شركة OpenAI صاحبة موديل الذكاء الاصطناعي الأشهر ChatGPT وجيفري هينتون، عالم الكمبيوتر المعروف بلقب الأب الروحي للذكاء الاصطناعي، وكيفن سكوت، الرئيس التنفيذي للتكنولوجيا في شركة مايكروسوفت، وآخرين.

الخطر على البشرية تقول رسالة وجهها في آذار “معهد مستقبل الحياة”، وهي منظمة مكرسة لاستكشاف المخاطر الوجودية على البشرية، إنه نظرا لأن أنظمة الذكاء الاصطناعي غالبا ما تتعلم سلوكا غير متوقع من الكميات الهائلة من البيانات التي تحللها، فقد تشكل مشاكل خطيرة وغير متوقعة.

وتقلق المنظمة، وفقا للرسالة، من إنه مع قيام الشركات بتوصيل نماذجها بخدمات الإنترنت، فإنه يمكن أن تكتسب هذه الأنظمة صلاحيات غير متوقعة لأنها يمكن أن تكتب رمز الكمبيوتر الخاص بها.

ويقولون إن المطورين سيخلقون مخاطر جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي القوية بتشغيل التعليمات البرمجية الخاصة بها وكتابتها.

ونقلت نيويورك تايمز عن أنتوني أغيري، عالم الكونيات النظري والفيزيائي في جامعة كاليفورنيا، قوله “إذا نظرت إلى استقراء مباشر لما نحن فيه الآن إلى ثلاث سنوات من الآن، فإن الأمور غريبة جدا”، مضيفا “في سيناريو قد يكون نادر الحدوث، لكن ممكنا، فستتحول هذه الأنظمة إلى أقوى مما كنا نعتقد أنها ستكون، وتصبح الأمور مجنونة حقا”.

ويقلق العلماء من القدرات الهائلة التي تمتلكها أو يمكن أن تمتلكها أنظمة الذكاء الاصطناعي في حال “تحررت” من قيودها، وفقا للصحيفة.

ويمكن فهم هذا القلق بتخيل حصول كومبيوترات فائقة القدرة على إمكانية التخلص من القيود البرمجية، حيث يمكنها نظريا فعل كل شيء، من تشغيل الطائرات المسيرة إلى السيطرة على الحسابات البنكية والبورصة وحتى الحصول على رموز تشغيل القنابل النووية ورموز أمان المفاعلات الذرية.

المعلومات المضللة تعد المعلومات المضللة على رأس قائمة المخاطر التي يحذر منها خبراء التكنولوجيا والاقتصاد والسياسة عند الحديث عن الذكاء الاصطناعي.

ووقع محام أميركي في ورطة، بداية الأسبوع الحالي، بعد أن استعان بالذكاء الاصطناعي للبحث عن سوابق قانونية تعزز موقفه خلال دفاعه عن موكله، لكن الذكاء الاصطناعي اختلق قضايا غير موجودة، ولم ينتبه المحامي إلى ما حصل إلا بعد أن اكتشف المحامي الخصم الموضوع وأبلغ القاضي.

وبالفعل، أثبت التفاعل مع ChatGPT إن من الممكن جعله يوفر معلومات غير صحيحة في حال تم استدراجه، أو كانت الطريقة التي يُطرح بها السؤال معدة لتوجيه الجواب في اتجاه معين.

على سبيل المثال، اختلق النموذج أسماء مضللة لشخصيات تاريخية غير موجودة، كما بنى حولها أحداثا لم تحصل فعلا، واختلق ترجمات غير صحيحة لعدد يدوية ثم أضافها إلى لغات بعيدة تماما عن أصلها اللغوي.

وتشير ورقة بحثية نشرها معهد بروكينغز بالاشتراك مع المعهد الإيطالي للدراسات السياسية الدولية (ISPI)، إلى أن هجمات المعلومات المضللة السريعة – أي الهجمات التي يُطلق فيها العنان للمعلومات المضللة بسرعة وعلى نطاق واسع بهدف خلق تأثير تخريبي فوري – تعد أحد أهم التحديات في النظام البيئي الرقمي.

ويقول معدو البحث إن المعلومات المضللة في حالة انتشارها يمكن أن تلحق ضررا كبيرا في ساعات أو حتى دقائق.

والانتخابات والأسواق المالية أحد المجالات حيث يمكن أن يحدث ذلك.

وحدث فعلا أن أدت صورة معدة بالذكاء الاصطناعي تظهر انفجارا في البنتاغون، الأسبوع الماضي، إلى هزة في البورصة الأميركية التي انخفضت لدقائق قليلة لكنها كانت كافية للتسبب بخسائر مالية.

ويقول الباحثون إنه يمكن أيضا استهداف الحركات الاجتماعية من خلال نشر معلومات كاذبة تهدف إلى تحفيز الفعل أو رد الفعل بين مؤيدي أو معارضي قضية ما.

“الثقة المفرطة” بالذكاء الاصطناعي وبينما لا يزال احتمال أن تسيطر الكومبيوترات على العالم بعيدا نسبيا، فإن جامعة ستانفورد الأميركية أعدت دراسة مطولة عن مخاطر الذكاء الاصطناعي وأيضا الفرص الواعدة التي يخلقها.

وتضم القائمة عدة مخاطر من بينها “مخاطر الاعتماد على البيانات الإحصائية في نظام العدالة”، ومخاطر “استخدام التفكير الإحصائي في تقديم الرعاية الطبية”، وغيرها من المخاطر التي يمكن جمعها بأنها تحذير من الاعتماد المفرط على الذكاء الاصطناعي لاتخاذ قرارات مصيرية بدلا من البشر.

وتؤكد الدراسة أن استخدام إحصاءات متحيزة أساسا بسبب البيئة البشرية وانعدام وصول معلومات شرائح كبيرة من السكان إلى قواعد البيانات، في تحديد إمكانيات تلقي الرعاية الصحية أو حتى مسار العلاج أو التنبؤ بالسرطانات، يمكن أن يمثل خطورة كبيرة على البشر.

وذكرت الدراسة شواهد تصرفت فيها أنظمة الذكاء الاصطناعي بعنصرية “جوهرية” عند تحديد المستفيدين من علاج معين أو حتى تحديد مخاطر الإصابة بنوع من السرطانات.

ويقول الدكتور محمد حميد، أخصائي أمن النظم الإليكترونية العراقي، إن “البيانات التاريخية” – وهي حزم بيانات كبيرة تظهر أنماطا معينة ويستفاد منها في برمجة نظم الذكاء الاصطناعي – غالبا ما تكون ناقصة، إذ إنها تعتمد فقط على الحالات التي تدرج في قواعد البيانات، وتتجاهل “الفروقات والظروف الفردية باعتبارها شواذ إحصائية” مما يحرم أصحاب الحالات الخاصة من الحصول على “الخدمات، أو الحماية، أو يتسبب بجعلهم غير مرئيين للنظام”.

وفي حالة التعامل مع البشر، يقول حميد لموقع “الحرة”، “هناك فرصة لتصحيح النظام المتحيز” وهي فرصة غير موجودة في حالة التعامل مع الآلة”.

وتشير دراسة ستانفورد إلى إنه في عام 2018 وجدت شركة أمازون أن من الضروري التخلص من أداة توظيف خاصة لأن البيانات التي اعتُمدت في تدريب الأداة، أدت إلى نظام متحيز بشكل منهجي ضد النساء.

وتسببت البيانات، وفقا للدراسة، بـ”جعل التحيز في البيانات تحيزا واقعيا ضد البشر، وترسيخه بشكل منهجي”.

كما أبلغ مستخدموا موقع Yelp عن مشاكل في اللوغارثمية الخاصة بإظهار التقييمات التي يعتمدون عليها لجلب مزيد من الزبائن.

وقال موظف خدمة العملاء في Yelp لموقع “الحرة” إن اللوغارثمية مبنية على توقع “التقييمات الزائفة” وحجبها، وإن البشر لا يتدخلون في العملية، وهو أيضا ما يقوله فيديو تعريفي بالخدمة منشور على الموقع ذاته.

وبحسب المتضررين فإن البرنامج حذف الكثير من التقييمات الحقيقية، مما أضر بتجارتهم بشكل كبير.

وفي حين إن “صناعة موديل يعالج آلاف المشاكل، أو طلبات التعيين، أو يصنف آلاف المرضى في وقت واحد هو أمر جذاب لأصحاب القرار”، كما يقول حميد، فإن “الحالات الفردية قد تبقى عالقة بدون حل ولا إمكانية للحل”.

الخطر على الوظائف يقول المبرمج في شركة أمازون، حسن الشماع، لموقع “الحرة” إن جزء كبيرا من الحلول التي يوفرها chatgpt وغيره من موديلات الذكاء الاصطناعي يعتمد على طريقة صياغة الأسئلة أو الطلبات.

ويضيف الشماع مازحا إنه “في حال استمر الوضع هكذا، فإن وظائف المبرمجين، التي تتطلب تواصلا مع مستخدمين غير خبراء بالبرمجة، في أمان في الوقت الحالي”.

لكن مع هذا، تبدو النماذج الاصطناعية الذكية قادرة بشكل كبير على صناعة نصوص برمجية ممتازة، وأيضا التحدث عن نفسها، كما يظهر منشور على موقع لنكدإن للمؤسس المشارك في شركة Advisors And Mentors التقنية، إلفن فو.

وطلب إلفن من برنامج الذكاء الصناعي كتابة نص برمجي لعرض شرائح يتحدث فيه الذكاء الاصطناعي عن نفسه، وجاءت النتائج مبهرة.

وتشير مجلة بزنس إنسايدر إلى إن وظائف مثل المبرمجين ومحللي البيانات ومحللي السوق ومصممي التطبيقات والغرافكس، ووظائف التسويق الإلكتروني وصناعة المحتوى، والمحامين والعاملين في المجال القانوني في خطر. بالإضافة إلى وظائف مثل المعلمين والمستشارين الاقتصاديين ومتاجري الأسهم والمحاسبين وخدمات العملاء وكثير من الوظائف الأخرى.

العودة إلى الوراء.. غير ممكنة مع هذا كله فإنه لا أحد يتصور إمكانية عودة (مارد) الذكاء الاصطناعي إلى القمقم مجددا، خاصة بعد الاستثمارات المليارية التي ضختها شركات مثل مايكروسوفت وغوغل، وأشخاص مثل إيلون ماسك وغيرهم كثيرون في هذا المجال.

وكما يمثل الذكاء الاصطناعي إمكانية لتدمير الحياة على كوكب الأرض، فإنه أيضا يمثل “فرصا واعدة لتحسين الحياة” على الكوكب نفسه.

وبحسب مجلة فوربس فإن “كومبيوترات الذكاء الاصطناعي لن ترتكب الأخطاء في حالة برمجتها بشكل صحيح”.

كما إن “نماذج الذكاء الاصطناعي التي تعتمد على التوقعات الإحصائية لن تترك مجالا للخطأ”، وإن الذكاء الاصطناعي “يوفر المال والوقت للحصول على نتائج دقيقة وفعالة”.

وتستمر المجلة في ذكر استخدامات الذكاء الاصطناعي التي تتنوع من “تحليل كميات هائلة من البيانات في دقائق”، إلى “المعاونين الشخصيين المصنوعين بالذكاء الاصطناعي”، وحتى سائقي السيارات والطائرات الآليين.

ولدى سؤاله عن المخاطر والفرص المحتملة من الذكاء الاصطناعي، أجاب نموذج ChatGPT عن أسئلة موقع “الحرة” بالقول: “يقدم الذكاء الاصطناعي (AI) مخاطر وفرصا للبشرية”.

ويضيف “يمكن للذكاء الاصطناعي إحداث ثورة في الصناعات وتعزيز الإنتاجية والكفاءة، ويمكنه أتمتة المهام العادية، مما يوفر الوقت للبشر للتركيز على المساعي الإبداعية والاستراتيجية”، ويستدرك “مع ذلك، فإن الذكاء الاصطناعي يشكل أيضا مخاطر، مثل الاستغناء عن الوظائف والمخاوف الأخلاقية وعدم المساواة الاقتصادية وفقدان اللمسة البشرية ومخاوف بشأن الخصوصية والأمان وإساءة الاستخدام المحتملة لتقنية الذكاء الاصطناعي”.

ويختم ChatGPT بعبارة “إن تحقيق التوازن بين تسخير إمكانات الذكاء الاصطناعي ومعالجة مخاطره أمر بالغ الأهمية لمستقبل مزدهر”.

بينما يقول نموذج Bard التابع لغوغل لموقع “الحرة” إن الذكاء الاصطناعي يمكن أن “يساعدنا في حل بعض أكثر مشاكل العالم إلحاحا، مثل تغير المناخ والأمراض”، لكن مخاطره تتمثل “في استخدام الذكاء الاصطناعي لصنع أسلحة مستقلة العمل (من دون مشغل) يمكن أن تقتل دون تدخل بشري”.

ويضيف “يمكن استخدام الذكاء الاصطناعي للتلاعب بالناس ونشر المعلومات الخاطئة، ويمكن أن يؤدي الذكاء الاصطناعي إلى بطالة جماعية حيث تصبح الآلات قادرة على القيام بمزيد ومزيد من الوظائف”.

بكلمة أخرى، يمكن أن يوفر برنامج ذكاء اصطناعي حزمة حلول كاملة للمستخدم، لكن هذه الأداة الفعالة يمكن أن تصبح أداة تخريب أكثر فعالية، في حال وقعت لدى الأيدي الخاطئة.