خمس خرافات تتعلق بالذكاء الاصطناعي
بيل لابلانتي وكاثرين وايت بيل لابلانتي وكاثرين وايت

خمس خرافات تتعلق بالذكاء الاصطناعي

يمثل الذكاء الاصطناعي المستقبل، وتدفع كل من «غوغل» و«مايكروسوفت» و«أمازون» و«آبل» برهانات ضخمة في اتجاهه. (جدير بالذكر أن مالك شركة «أمازون»، جيف بيزوس، يملك كذلك صحيفة «واشنطن بوست»). ومن جانبه، عقد الكونغرس جلسات استماع حول الأمر، بل وشكل لجنة تعنى بالذكاء الاصطناعي تضم أعضاء عن الحزبين الجمهوري والديمقراطي. ومن الرعاية الصحية إلى النقل إلى الأمن الوطني، يحمل الذكاء الاصطناعي إمكانات كبيرة لتحسين حياة البشر.

ومع هذا، فإنه لا يخلو من مخاوف تتعلق بإمكانية تعرض حركة النشاط الاقتصادي لخلل مفاجئ وإمكانية اشتعال «سباق تسلح في مجال الذكاء الاصطناعي». ومثلما الحال مع أية تغييرات تنطوي على تحولات كبرى، يبدو الأمر برمته معقداً. وقد تكمن الخرافة الكبرى المتعلقة بالذكاء الاصطناعي في أنه يمكننا التأكد تماماً من طبيعة وحجم التأثيرات المستقبلية له. وفيما يلي سوف نستعرض خمس خرافات أخرى.
الخرافة رقم 1: بمقدورك التمييز بين آلة وإنسان.
بالتأكيد لا تخلو المحادثات مع آلات الذكاء الاصطناعي من جانب فكاهي غير متعمد، الأمر الذي يمكن أن يصدق عليه أي شخص يتعامل مع «أليكسا» أو «سيري» أو «كورتانا». من جانبه، كتب بريان كريستيان في مقال نشره في «سيمزونيان مغازين» عام 2012 عن هذه الآلات أن «استجاباتها غالباً ما تعتمد على شظايا مجمعة من محادثات مخزنة، مما يجعلها تبدو منطقية على المستوى المحلي، لكنها تفتقر إلى التناغم على المدى الطويل».
وتأتي الاستجابات السخيفة لتكشف ضعف مستوى قدرة الآلات على محاكاة البشر - بل وحتى أحياناً، على معالجة المعلومات. وفي تصريحات له إلى «تيك كرنش» العام الماضي، أكد غاري كاسباروف: «الآلات ليس لديها قدرة على الفهم، وتعجز عن استيعاب الأنماط الاستراتيجية. الآلات ليس لديها هدف».
ومع هذا، نجد في الحقيقة أن الآلات تكتب أخباراً مالية وقصصاً صحافية رياضية وتقارير حول حالة الطقس، ولا يلحظ القراء ذلك. من «الأسوشييتد برس» إلى «الواشنطن بوست»، أصبح هذا الأمر شائعاً على نحو متزايد.
أيضاً، ينتج الذكاء الاصطناعي فيديوهات مزيفة ببراعة لخطب مختلقة لسياسيين ومقاطع إباحية تضم وجوهاً لمشاهير، يعتقد الكثيرون أنها حقيقية.
وتحمل هذه التطورات المتسارعة في طياتها مخاوف كبيرة وتزعزع ثقة الرأي العام فيما يراه ويسمعه. وسبق أن حذرت دراسة صادرة عن جامعة هارفارد عام 2017 من أن «وجود قدرات تزييف واسعة على صلة بالذكاء الاصطناعي ستؤدي إلى تآكل الثقة الاجتماعية، مع تفاقم الشكوك حول أدلة كانت تعتبر جديرة بالثقة من قبل».
الخرافة رقم 2: الولايات المتحدة متقهقرة في سباق الذكاء الاصطناعي.
تتمحور الاستراتيجية الوطنية الصينية حول ريادة العالم بمجال الذكاء الاصطناعي، وتدعو الاستراتيجية إلى «تدريب وجمع مواهب رفيعة في مجال الذكاء الاصطناعي». وأثار ذلك مخاوف عميقة داخل الولايات المتحدة. وفي مقال له بدورية «إم آي تي تكنولوجي ريفيو» عام 2017، حذر ويل نايت من أن «مكانة الصين في هذا المجال ستعينها على تعزيز مكانتها كقوة اقتصادية مهيمنة عالمياً».
ومع أن ثمة أسباباً تدعو إلى القلق بالفعل حيال وضع الولايات المتحدة على هذا الصعيد، فإن الوثيقة الاستراتيجية الصينية تعترف بأن «هناك فجوة بين مجمل مستوى التطور في الصين بالنسبة للذكاء الاصطناعي مقارنة بما عليه الحال في دول متقدمة». ويرى الباحث جيفري دينغ، من جامعة أكسفورد، أن «الصين تأتي في مرتبة متأخرة عن الولايات المتحدة فيما يتعلق بجميع المحددات فيما عدا الوصول إلى البيانات». كما تضم الولايات المتحدة عدداً أكبر من الخبراء في مجال الذكاء الاصطناعي ينشرون عدداً أكبر من الأبحاث بهذا المجال، علاوة على توجيه الولايات المتحدة استثمارات أكبر إلى جهود الذكاء الاصطناعي.
ومع هذا وبالنظر إلى إصرار الصين على التفوق في مجال الذكاء الاصطناعي، فإنه يتعين على الولايات المتحدة بذل جهود حثيثة على المستوى المجتمعي للحفاظ على مكانتها المهيمنة في هذا المجال. ومن الواضح أن ثمة جهوداً تجري بالفعل على هذا النحو، فقد أفادت صحيفة «نيويورك تايمز» في مارس (آذار) أن «البنتاغون» يحاول التعاون مع شركات ما يعرف بـ«وادي السيليكون» لدفع مشروعات بمجال الذكاء الاصطناعي قدماً.
الخرافة رقم 3: الذكاء الاصطناعي سيحول الاقتصاد إلى الطابع الإلكتروني ويدفع البشر نحو البطالة.
منذ وقت مبكر - تحديداً عام 1964 - حذرت مجموعة من العلماء الحاصلين على جائزة «نوبل» أطلقوا على أنفسهم «اللجنة الخاصة حول الثورة الثلاثية» من أن الآلات سوف تدشن «نظاماً من القدرة الإنتاجية غير المحدودة تقريباً»، من شأنه إحداث خلل بمعدلات البطالة. وفي وقت قريب، خرج مقال في «مذر جونز» بعنوان «ستخسر وظيفتك لصالح روبوت - وفي وقت أسرع مما تعتقد». وأضاف المقال أن أصحاب الوظائف المهنية والحرفية على حد سواء قد يفقدون وظائفهم لصالح آلات الذكاء الاصطناعي، ما يؤدي إلى تفاقم البطالة والفقر.
بيد أنه في خضم التحولات التي سيدخلها الذكاء الاصطناعي على العمل، فإنه قد يخلق وظائف جديدة أيضاً. في هذا السياق، أشار جويل موكير، المؤرخ الاقتصادي لدى «نورثويسترن يونيفرستي»، إلى أنه «لا يمكننا التوقع بأن ثمة وظائف جديدة سيجري خلقها في المستقبل، لكن هذه دوماً كانت الحال». تاريخياً، دائماً ما كانت التغييرات التكنولوجية تؤدي بادئ الأمر إلى تراجع في أعداد الوظائف، ثم تعزز لاحقاً أعداد الوظائف وترفع مستويات المعيشة عبر تمكين صناعات وقطاعات جديدة. حتى هذه اللحظة، لا نعلم على وجه اليقين كيف سيؤثر الذكاء الاصطناعي على معدلات التوظيف على المدى الطويل. وما بين اليوم وتلك اللحظة المستقبلية، قد تحدث فترات من الخلل وربما نواجه فجوة متنامية ما بين من يملكون المهارات التي تمكنهم من الازدهار في عالم متغير وغيرهم من المفتقرين إلى هذه المهارات.
الخرافة رقم 4: بمقدور الذكاء الاصطناعي إزالة الانحياز البشري من عملية صنع القرار.
من السهل تخيل أن الاعتماد على أجهزة الكومبيوتر في اتخاذ قرارات حيوية يشطب التحيز البشري من المعادلة. من جانبها، أكدت مجلة «ديجيتاليست مغازين» العام الماضي أن «البشر تعوقهم افتراضاتهم غير الواعية وعجزهم عن معالجة كميات ضخمة من المعلومات».
جدير بالذكر أن قضاة في مختلف أرجاء الولايات المتحدة يعتمدون على أدوات على صلة بالذكاء الاصطناعي في اتخاذ قرارات، بناءً على فرضية أن هذه الأنظمة بمقدورها «طرح أكثر المعلومات موضوعية بهدف إصدار قرارات منصفة بشأن السجناء».
في الحقيقة، كنت أتمنى لو أن الواقع بمثل هذه البساطة. في مثال واحد على مدى إمكانية سقوط الذكاء الاصطناعي في هوة التحيز، توصلت «برو ببليكا» إلى أن برنامجاً كان مصمماً للاضطلاع بدور محوري في قرارات العدالة الجنائية من الكفالة حتى العقوبات، كان أكثر احتمالاً بمقدار الضعف لأن يصنف المتهمين ذوي البشرة السمراء بأنهم من المحتمل تكرارهم للجرائم عن المتهمين البيض. كما وقع البرنامج في خطأ تصنيف المتهمين البيض باعتبارهم منخفضي الخطورة بمعدل أكبر عنه مع المتهمين داكني البشرة. وخلصت «برو ببليكا» في تقييمها للبرنامج إلى أنه «كان في الغالب مخطئاً - ومتحيزاً ضد داكني البشرة».
الخرافة رقم 5: الذكاء الاصطناعي يشكل تهديداً للبشرية.
أثارت بعض القيادات البارزة في المجال العلمي والتكنولوجي القلق إزاء تداعيات الذكاء الاصطناعي على مستقبل البشرية. وقال إلون موسك في هذا الصدد في مارس الماضي: «خطر الذكاء الاصطناعي يفوق خطر الرؤوس الحربية النووية بكثير، وليس هناك من ينادي بضرورة السماح للأفراد ببناء رؤوس نووية كيفما شاءوا».
وقال ستيفين هوكينغ عام 2017 في تصريحات لـ«ويرد»: «أخشى أن يحل الذكاء الاصطناعي محل البشر تماماً».
ومع هذا، تبقى الحقيقة ببساطة أننا لا ندري على وجه اليقين بعد إلى أي اتجاه سيقودنا الذكاء الاصطناعي، ولا يعني ذلك أن الروبوتات القاتلة الضخمة ستشرع قريباً في اقتحام الشوارع وقتل من تراه أمامها. في الواقع، الخطر الأكثر إلحاحاً اليوم ليس الذكاء الاصطناعي وإنما الخطر الذي نشكله على أنفسنا إذا لم نتوخَ الحذر في اتخاذ المسار الذي نسير فيه قدماً بمجال تجارب الذكاء الاصطناعي.
وفي بعض الأطر، يمكن للذكاء الاصطناعي إنقاذ الأرواح؛ إذ تجدر الإشارة إلى أنه في مارس قتلت سيارة تعمل بالقيادة الذاتية أحد المشاة في أريزونا، في حادثة سببت مشكلة كبيرة للتكنولوجيا الناشئة.
ومع ذلك، أكد كثير من الباحثين منذ أمد طويل أن المركبات ذاتية القيادة ستعين في خفض العدد الإجمالي لضحايا حوادث المرور. على سبيل المثال، أفاد تقرير صدر عن «راند كورب» عام 2017 بأن طرح سيارات ذاتية القيادة في الشوارع في وقت مبكر قد يسهم في إنقاذ مئات الآلاف.

تنويه: إن الآراء الواردة في قسم «تقارير وآراء»- بما قد تحمله من أفكار ومصطلحات- لا تعبِّر دائماً عن السياسة التحريرية لصحيفة «قاسيون» وموقعها الإلكتروني