أخبر قطتك بما تعتقده بالداخل - تأثير الصندوق الأسود
تكنولوجيا

أخبر قطتك بما تعتقده بالداخل - تأثير الصندوق الأسود

حقيقة أن خوارزميات الذكاء الاصطناعي المتقدمة تشبه الصندوق الأسود (1) الذي يرمي نتيجة دون الكشف عن كيفية ظهورها يقلق البعض ويزعج الآخرين.

في عام 2015 ، طُلب من فريق بحث في مستشفى Mount Sinai في نيويورك استخدام هذه الطريقة لتحليل قاعدة بيانات واسعة النطاق للمرضى المحليين (2). تحتوي هذه المجموعة الضخمة على محيط من معلومات المريض ونتائج الاختبارات ووصفات الطبيب والمزيد.

دعا العلماء البرنامج التحليلي الذي تم تطويره في سياق العمل. تم تدريبه على بيانات من حوالي 700 شخص. الإنسان ، وعند اختباره في سجلات جديدة ، فقد ثبت أنه فعال للغاية في التنبؤ بالمرض. بدون مساعدة الخبراء البشريين ، اكتشف أنماطًا في سجلات المستشفى تشير إلى المريض الذي على طريق الإصابة بمرض ، مثل سرطان الكبد. وفقًا للخبراء ، كانت الكفاءة الإنذارية والتشخيصية للنظام أعلى بكثير من أي طرق أخرى معروفة.

2. نظام ذكاء إصطناعي طبي يعتمد على قواعد بيانات المريض

في الوقت نفسه ، لاحظ الباحثون أنه يعمل بطريقة غامضة. اتضح ، على سبيل المثال ، أنه مثالي لـ التعرف على الاضطرابات النفسيةمثل الفصام ، وهو أمر صعب للغاية بالنسبة للأطباء. كان هذا مفاجئًا ، لا سيما أنه لم يكن لدى أي شخص أي فكرة عن كيف يمكن لنظام الذكاء الاصطناعي أن يرى المرض العقلي جيدًا بناءً على السجلات الطبية للمريض فقط. نعم ، كان المتخصصون سعداء للغاية بمساعدة مثل هذا التشخيص الآلي الفعال ، لكنهم سيكونون أكثر رضا إذا فهموا كيف يصل الذكاء الاصطناعي إلى استنتاجاته.

طبقات الخلايا العصبية الاصطناعية

منذ البداية ، أي منذ اللحظة التي أصبح فيها مفهوم الذكاء الاصطناعي معروفًا ، كانت هناك وجهتي نظر حول الذكاء الاصطناعي. اقترح الأول أنه سيكون من الأكثر منطقية بناء آلات تفكر وفقًا للمبادئ المعروفة والمنطق البشري ، مما يجعل أعمالها الداخلية شفافة للجميع. يعتقد البعض الآخر أن الذكاء سيظهر بسهولة أكبر إذا تعلمت الآلات من خلال الملاحظة والتجريب المتكرر.

هذا الأخير يعني عكس برمجة الكمبيوتر النموذجية. بدلاً من كتابة أوامر للمبرمج لحل مشكلة ما ، يولد البرنامج الخوارزمية الخاصة بناءً على بيانات العينة والنتيجة المرجوة. طرق التعلم الآلي التي تطورت لاحقًا إلى أقوى أنظمة الذكاء الاصطناعي المعروفة اليوم قد سلكت للتو طريق ، في الواقع ، برامج الجهاز نفسه.

ظل هذا النهج على هوامش أبحاث أنظمة الذكاء الاصطناعي في الستينيات والسبعينيات. فقط في بداية العقد الماضي ، بعد بعض التغييرات والتحسينات الرائدة ، الشبكات العصبية "العميقة" بدأ في إظهار تحسن جذري في قدرات الإدراك الآلي. 

لقد منح التعلم الآلي العميق أجهزة الكمبيوتر بقدرات غير عادية ، مثل القدرة على التعرف على الكلمات المنطوقة بنفس دقة الإنسان تقريبًا. هذه مهارة معقدة للغاية لبرمجتها مسبقًا. يجب أن يكون الجهاز قادرًا على إنشاء "البرنامج" الخاص به بواسطة التدريب على مجموعات البيانات الضخمة.

لقد أدى التعلم العميق أيضًا إلى تغيير التعرف على صور الكمبيوتر وتحسين جودة الترجمة الآلية بشكل كبير. اليوم ، يتم استخدامه لاتخاذ جميع أنواع القرارات الرئيسية في الطب والتمويل والتصنيع وغير ذلك.

ومع ذلك ، مع كل هذا لا يمكنك فقط النظر داخل شبكة عصبية عميقة لترى كيف يعمل "الداخل". يتم تضمين عمليات التفكير الشبكي في سلوك الآلاف من الخلايا العصبية المحاكاة ، المنظمة في عشرات أو حتى مئات الطبقات المترابطة بشكل معقد..

تتلقى كل خلية من الخلايا العصبية في الطبقة الأولى مدخلاً ، مثل شدة البكسل في الصورة ، ثم تجري العمليات الحسابية قبل إخراج المخرجات. يتم نقلها في شبكة معقدة إلى الخلايا العصبية في الطبقة التالية - وهكذا ، حتى إشارة الخرج النهائية. بالإضافة إلى ذلك ، هناك عملية تعرف باسم ضبط الحسابات التي تقوم بها الخلايا العصبية الفردية بحيث تنتج شبكة التدريب النتيجة المرجوة.

في أحد الأمثلة التي يتم الاستشهاد بها كثيرًا والمتعلق بالتعرف على صورة الكلاب ، تحلل المستويات الأدنى من الذكاء الاصطناعي الخصائص البسيطة مثل الشكل أو اللون. يتعامل الأشخاص الأعلى مع قضايا أكثر تعقيدًا مثل الفراء أو العيون. فقط الطبقة العليا تجمع كل ذلك معًا ، وتحدد المجموعة الكاملة من المعلومات ككلب.

يمكن تطبيق نفس الأسلوب على أنواع أخرى من المدخلات التي تشغل الآلة لتتعلم نفسها: الأصوات التي تشكل الكلمات في الكلام ، والحروف والكلمات التي تشكل الجمل في نص مكتوب ، أو عجلة القيادة ، على سبيل المثال. الحركات اللازمة لقيادة السيارة.

السيارة لا تتخطى أي شيء.

جرت محاولة لشرح ما يحدث بالضبط في مثل هذه الأنظمة. في عام 2015 ، قام باحثون في Google بتعديل خوارزمية التعلم العميق للتعرف على الصور بحيث يتم إنشاؤها أو تعديلها بدلاً من رؤية الأشياء في الصور. من خلال تشغيل الخوارزمية للخلف ، أرادوا اكتشاف الخصائص التي يستخدمها البرنامج للتعرف ، على سبيل المثال ، على طائر أو مبنى.

أنتجت هذه التجارب ، المعروفة باسم العنوان ، صورًا مذهلة لـ (3) حيوانات غريبة وغريبة ومناظر طبيعية وشخصيات. من خلال الكشف عن بعض أسرار الإدراك الآلي ، مثل حقيقة أن أنماط معينة يتم إرجاعها وتكرارها بشكل متكرر ، أظهروا أيضًا كيف يختلف التعلم الآلي العميق عن الإدراك البشري - على سبيل المثال ، بمعنى أنه يوسع ويكرر القطع الأثرية التي نتجاهلها في عملية الإدراك لدينا دون تفكير. .

3. الصورة التي تم إنشاؤها في المشروع

وبالمناسبة، من ناحية أخرى ، كشفت هذه التجارب عن لغز آلياتنا المعرفية. ربما يكون في تصورنا أن هناك العديد من المكونات غير المفهومة التي تجعلنا نفهم شيئًا ما ونتجاهله على الفور ، بينما تكرر الآلة بصبر تكراراتها على أشياء "غير مهمة".

أجريت اختبارات ودراسات أخرى في محاولة "لفهم" الآلة. جايسون يوسينسكي لقد ابتكر أداة تعمل مثل مسبار عالق في الدماغ ، وتستهدف أي خلية عصبية اصطناعية وتبحث عن الصورة التي تنشطها بشدة. في التجربة الأخيرة ، ظهرت صور مجردة نتيجة "اختلاس" الشبكة بالجرم المشهود ، مما جعل العمليات التي تجري في النظام أكثر غموضًا.

ومع ذلك ، بالنسبة للعديد من العلماء ، مثل هذه الدراسة هي سوء فهم ، لأنه ، في رأيهم ، من أجل فهم النظام ، للتعرف على أنماط وآليات الترتيب الأعلى لاتخاذ القرارات المعقدة ، كل التفاعلات الحسابية داخل شبكة عصبية عميقة. إنها متاهة عملاقة من الوظائف والمتغيرات الرياضية. في الوقت الحالي ، إنه أمر غير مفهوم بالنسبة لنا.

الكمبيوتر لا يبدأ؟ لماذا؟

لماذا من المهم فهم آليات صنع القرار لأنظمة الذكاء الاصطناعي المتقدمة؟ يتم بالفعل استخدام النماذج الرياضية لتحديد النزلاء الذين يمكن الإفراج عنهم بشروط ، ومن يمكن منحه قرضًا ، ومن يمكنه الحصول على وظيفة. يرغب المهتمون في معرفة سبب اتخاذ هذا القرار وليس قرارًا آخر ، ما هي أسسه وآليته.

اعترف في أبريل 2017 في MIT Technology Review. تومي يعقولا، وهو أستاذ في معهد ماساتشوستس للتكنولوجيا يعمل على تطبيقات للتعلم الآلي. -.

حتى أن هناك موقفًا قانونيًا وسياسيًا مفاده أن القدرة على فحص وفهم آلية صنع القرار لأنظمة الذكاء الاصطناعي هي حق أساسي من حقوق الإنسان.

منذ عام 2018 ، يعمل الاتحاد الأوروبي على مطالبة الشركات بتقديم تفسيرات لعملائها حول القرارات التي تتخذها الأنظمة الآلية. اتضح أن هذا غير ممكن في بعض الأحيان حتى مع الأنظمة التي تبدو بسيطة نسبيًا ، مثل التطبيقات والمواقع التي تستخدم العلوم العميقة لعرض الإعلانات أو التوصية بالأغاني.

تقوم أجهزة الكمبيوتر التي تشغل هذه الخدمات ببرمجة نفسها ، وتقوم بذلك بطرق لا يمكننا فهمها ... حتى المهندسين الذين قاموا بإنشاء هذه التطبيقات لا يمكنهم شرح كيفية عملها بشكل كامل.

إضافة تعليق