يصبح الذكاء الاصطناعي أكثر ذكاءً كل يوم ، لكنه لا يزال غير قادر على مطابقة العقل البشري

بواسطة غي Perelmuter قراءة 7 دقائق

يمكن تقسيم أبحاث الذكاء الاصطناعي بطرق مختلفة: كدالة للتقنيات المستخدمة (مثل الأنظمة الخبيرة ، أو الشبكات العصبية الاصطناعية ، أو الحساب التطوري) أو المشكلات التي تمت معالجتها (مثل رؤية الكمبيوتر ، أو معالجة اللغة ، أو الأنظمة التنبؤية). حاليًا ، تُعرف إحدى تقنيات الذكاء الاصطناعي الأكثر استخدامًا لتطوير التطبيقات الجديدة باسم التعلم الآلي. بشكل أساسي ، يسعى التعلم الآلي إلى تقديم الخوارزميات بأكبر حجم ممكن من البيانات ، مما يسمح للأنظمة بتطوير القدرة على استخلاص النتائج بشكل مستقل. طريقة بسيطة لوصف العملية هي كما يلي: إذا أردنا تعليم نظام التعرف على الصور لتحديد مفتاح ، فإننا نعرض له أكبر عدد ممكن من المفاتيح لتدريبه. بعد ذلك ، يتعلم الهيكل نفسه تحديد ما إذا كانت الصور اللاحقة المقدمة هي مفاتيح أم لا - حتى لو لم ير النظام هذه الصور مطلقًا أثناء تدريبه.

كان التعرف على الصورة مهمة يتمتع فيها البشر بميزة واضحة على الآلات - حتى وقت قريب نسبيًا. وقد عملت مبادرات مثل مشروع ImageNet ، الذي تمت صياغته في عام 2006 ، على تقليل هذا الاختلاف بشكل كبير. بقيادة الباحث الصيني الأمريكي فاي فاي لي ، أستاذ علوم الكمبيوتر بجامعة ستانفورد والذي عمل أيضًا كمدير لمختبر ستانفورد للذكاء الاصطناعي (SAIL) ، يتكون مشروع ImageNet من قاعدة بيانات تضم ما يقرب من 15 مليون صورة تم تصنيفها من قبل البشر. .

مستودع المعلومات هذا هو المادة الخام المستخدمة لتدريب خوارزميات الرؤية الحاسوبية وهو متاح على الإنترنت مجانًا. لتعزيز التنمية في مجال التعرف على الصور بالكمبيوتر ، تم إنشاء تحدي التعرف البصري على نطاق واسع على ImageNet (ILSVRC) في عام 2010 حيث تتنافس الأنظمة التي طورتها فرق من جميع أنحاء العالم لتصنيف الصور المعروضة على شاشاتهم بشكل صحيح. إن تطور النتائج التي تم الحصول عليها على مدى أقل من عقد من الزمان هو دليل على التقدم الاستثنائي الذي تم إحرازه في مجال التعلم العميق (حاليًا أحد أكثر التقنيات استخدامًا في الذكاء الاصطناعي ، وعامل تمكين رئيسي - كما خمنت - للتكنولوجيا العميقة) . في عام 2011 ، تم اعتبار معدل الخطأ 25 ٪ جيدًا ؛ في عام 2017 ، من أصل 38 فريقًا مشاركًا ، حصل ما لا يقل عن 29 فريقًا على معدل خطأ أقل من 5٪.

لعقود من الزمن ، كان تطوير برامج الكمبيوتر يعتمد على المعادلة "القواعد + البيانات = النتائج". بمعنى آخر ، تم إدخال القواعد مسبقًا ، وتمت معالجة بيانات الإدخال ، وتم إنتاج النتائج. لكن النموذج الذي تستخدمه الأنظمة القائمة على التعلم العميق يختلف اختلافًا كبيرًا ويسعى لتقليد الطريقة التي يتعلم بها البشر: "البيانات + النتائج = القواعد".

يتم تنفيذ هذه الأنظمة عادةً من خلال الشبكات العصبية الاصطناعية (الهياكل القادرة على استخراج الخصائص اللازمة لإنشاء القواعد من البيانات ، وتحقيق النتائج) ، وتقع هذه الأنظمة في الخطوط الأمامية لمنصات التعرف على الوجه ، والتعرف على الصوت ، ورؤية الكمبيوتر ، الطب التشخيصي ، وأكثر من ذلك. بمجرد تقديم مجموعة كبيرة بما فيه الكفاية من الأمثلة (البيانات) مع التصنيفات الخاصة بها (النتائج) ، يحصل النظام على تمثيل داخلي للقواعد - ويصبح قادرًا على استقراء النتائج للبيانات التي لم يسبق لها مثيل من قبل.

القيام بالشيء الصحيح

على الرغم من أن الأنظمة القائمة على التعلم العميق قادرة على تحسين دقة أي مهمة تصنيف تقريبًا ، فمن الضروري أن نتذكر أن دقتها تعتمد بشكل كبير على جودة ونوع البيانات المستخدمة أثناء مرحلة التعلم. هذا أحد أكبر عوامل الخطر لاستخدام هذه التقنية: إذا لم يتم التدريب بعناية ، فقد تكون النتائج خطيرة. في دراسة أجريت عام 2016 ، استخدم ثلاثة باحثين من جامعة برينستون - أيلين كاليسكان ، وجوانا بريسون ، وأرفيند نارايانان - ما يقرب من تريليون كلمة إنجليزية كبيانات إدخال. أشارت النتائج إلى أن "اللغة نفسها تحتوي على تحيزات تاريخية ، سواء كانت محايدة أخلاقيا تجاه الحشرات أو الزهور ، أو إشكالية تجاه العرق أو الجنس ، أو حتى مجرد حقيقة ، مما يعكس توزيع الجنس فيما يتعلق بالمهن أو الأسماء الأولى."

ليس للآلات إرادتها الحرة ؛ فهم دائمًا يتبعون تعليمات مبرمجيهم.

في عام 2016 أيضًا ، نشرت المجلة الشهرية لجمعية آلات الحوسبة (أكبر جمعية تعليمية دولية للحوسبة في العالم ، تأسست عام 1947) مقالًا بقلم نيكولاس دياكوبولوس (دكتوراه في علوم الكمبيوتر من معهد جورجيا للتكنولوجيا) بعنوان "المساءلة في صنع القرار الحسابي ". إذا استمر ما يسمى بالأنظمة الذكية في توسعها في مجالات مختلفة من الأعمال والخدمات والحكومات ، فسيكون من المهم ألا تتلوث بالتحيزات التي يطورها البشر ، سواء بوعي أو بغير وعي. من المحتمل أن يشتمل النموذج المثالي على التعاون بين الآلات والبشر ، ومن المحتمل أن يكون الأخير مسؤولاً عن اتخاذ القرارات بشأن الموضوعات ذات الفروق الدقيقة والتعقيدات التي لم يتم فهمها بالكامل بعد بواسطة النماذج والخوارزميات.

ينعكس مفهوم أهمية التغييرات المستقبلية في جميع الصناعات تقريبًا في زيادة الاستثمارات في الشركات الناشئة من القطاع: وفقًا لشركة CB Insights ، ارتفع هذا الرقم من أقل من 2 مليار دولار في عام 2013 إلى أكثر من 25 مليار دولار في عام 2019. تقوم شركات التكنولوجيا مثل Google و Microsoft و Apple و Facebook و Amazon بالفعل بدمج تقنيات ذكية في منتجاتها وتتجه نحو مستقبل حيث ستحتوي جميع خطوط أعمالها تقريبًا على مكون تعلم آلي مدمج. يمكن أن ينطبق هذا على جميع أنواع التطبيقات: الترجمة الفورية التلقائية أثناء المكالمة ، التوصيات لأي شيء نريد (أو نريد) شرائه عبر الإنترنت ، أو تصحيح التعرف على الصوت في التفاعلات مع هواتفنا المحمولة.

يتمثل أحد أكبر التحديات التي تواجه الشركات في تحديد أفضل طريقة لاستخدام هذه المجموعة من التقنيات الجديدة ، والتي ستحتوي على جوانب احتمالية في مخرجاتها. بمعنى آخر ، تقدر الخوارزميات حلاً لمشكلة معينة ، دون ضمان أنها في الواقع أفضل حل. إما أن تكون العملية قوية وموثوقة ، كدالة على جودة التنفيذ والتقنيات المستخدمة ، أو أن النتائج ستكون ضارة بالصحة المالية للشركة المعنية.

السلام والحرب: الآلات ليس لها إرادة حرة

يوفر تكامل آليات وأسلحة الذكاء الاصطناعي إمكانية امتلاك أسلحة مستقلة حقًا (أنظمة أسلحة مستقلة أو أسلحة فتاكة ذاتية التشغيل). يمكن برمجة طائرة مسلحة بدون طيار مزودة ببرنامج التعرف على الوجه لقتل شخص معين أو مجموعة من الأشخاص ثم تدمير الذات ، مما يجعل من المستحيل عمليا تحديد مصدرها.

ليس للآلات إرادتها الحرة ؛ فهم دائمًا يتبعون تعليمات مبرمجيهم. تمثل هذه الأسلحة مخاطر كبيرة ، حتى عند استخدامها لأغراض دفاعية فقط (خط ضعيف بالتأكيد) ، وهي تستحضر صورًا للروبوتات القاتلة التي يكتب عنها مؤلفو الخيال العلمي منذ عقود.

في عام 2015 ، في المؤتمر الدولي المشترك للذكاء الاصطناعي ، تم التوقيع على رسالة تدعو إلى إلغاء هذا النوع من الأسلحة من قبل الفيزيائي النظري ستيفن هوكينج (1942-2018) ، ورجل الأعمال إيلون ماسك ، وعالم الأعصاب ديميس هاسابيس (أحد مؤسسي DeepMind ، التي استحوذت عليها Google في عام 2014) ، من بين أمور أخرى. لا يزال النقاش مستمرًا ، ولكن هناك أمثلة تاريخية تتحدث عن فوائد مشاركة البشر مثل فاسيلي أركييبوف (1926-1998) في قرارات الحياة والموت.

في أبريل من عام 1962 ، فشلت مجموعة من المنفيين الكوبيين برعاية وكالة المخابرات المركزية الأمريكية في محاولتهم غزو خليج الخنازير في كوبا. لمنع حدوث غزو في المستقبل ، طلبت الحكومة الكوبية من الاتحاد السوفيتي تثبيت صواريخ نووية على الجزيرة. بعد الحصول على دليل قاطع على أن هذه الصواريخ تم تركيبها بالفعل ، شنت الولايات المتحدة حصارًا بحريًا لمنع المزيد من الصواريخ من الوصول إلى الجزيرة وطالبت بإزالة تلك التي تم تثبيتها بالفعل ، والتي كانت على بعد 150 كم (90 ميل) فقط. من فلوريدا. في أكتوبر من عام 1962 ، شاهد العالم التوترات بين الولايات المتحدة والاتحاد السوفيتي تتصاعد وتصل إلى ذروتها.

في 27 أكتوبر ، عندما كانت غواصة سوفيتية من طراز B-59 تقع في المياه الدولية القريبة ، أسقط طاقم من البحرية الأمريكية شحنات أعماق بالقرب من السفينة لإجبارها على الظهور على السطح. مع عدم وجود اتصال من موسكو لعدة أيام وغير قادر على استخدام الراديو ، كان قبطان الغواصة ، فالنتين سافيتسكي ، مقتنعًا بأن الحرب العالمية الثالثة قد بدأت ، وأراد إطلاق طوربيد نووي ضد الأمريكيين. لكن قرار إطلاق سلاح نووي من B-59 يجب أن يكون بالإجماع بين المسؤولين الثلاثة: الكابتن سافيتسكي ، والضابط السياسي إيفان ماسلنيكوف ، والرجل الثاني في القيادة فاسيلي أركييبوف ، الذي كان يبلغ 39 عامًا فقط في ذلك الوقت. كان الوحيد الذي عارض وأوصى بأن سطح الغواصة من أجل الاتصال بموسكو. على الرغم من الأدلة التي تشير إلى الحرب ، ظل Arkhipov حازمًا وأنقذ العالم بالفعل من صراع نووي.

مقتبس بإذن من Guy Perelmuter المستقبل الحالي: الأعمال والعلوم وثورة التكنولوجيا العميقة، نشرته شركة Fast Company Press.

جاي بيرلموتر هو مؤسس GRIDS كابيتال، وهي شركة ذات رأسمال مغامر في مجال التكنولوجيا العميقة تركز على الذكاء الاصطناعي والروبوتات وعلوم الحياة والبنية التحتية التكنولوجية.

إقرأ المزيد

الرجل Perelmuter