شارك

إل مولينو وكريستيانيني: "كيف نعيش مع الآلات الذكية"

في عالم أصبحت فيه الآلات ذكية بشكل متزايد و "لا غنى عنها" ، غالبًا ما يتم التقليل من المخاطر والآثار على المستوى الاجتماعي والثقافي. الفيزيائي كريستيانيني في Lettura del Mulino مقتنع بأن الوقت قد حان "لإملاء القواعد"

إل مولينو وكريستيانيني: "كيف نعيش مع الآلات الذكية"

"نحن بحاجة إلى التفكير في ما أنشأناه ولماذا." هم كلام نيلو كريستيانيني ، عالم فيزياء وأستاذ وباحث في الذكاء الاصطناعي بجامعة بريستول خلال الطبعة السادسة والثلاثين من قراءة الطاحونة بعنوان "الآلات الذكية". افهمهم ليكونوا قادرين على العيش معهم ".

من الخمسينيات إلى التسعينيات ، كان نهج الذكاء الاصطناعي "رياضيًا" للغاية: تساءل المرء ما هو النشاط الفكري الأعلى الذي يمكن أن يؤديه الإنسان ويبدو أن الإجابة هي "إثبات النظريات" ، بدأ محاضرًا في بريستول. " كانت فكرة أن الذكاء كان استنتاجًا منطقيًا ، وأن القواعد البديهية كانت شائعة جدًا في تلك الأيام ، ولم تؤد كل الجهود المستثمرة في محاولة إنشاء آلات ذكية في هذا السياق إلى أي نتائج. كانت نقطة التحول هي التخلي عن هذا النهج لصالح الأساليب الإحصائية: سمح هذا "التحول النموذجي" للمترجمين الأوائل. باختصار ، لقد انتقلنا من محاولة تحديد قواعد دقيقة والمضي قدمًا عن طريق الاستنتاج المنطقي إلى اتباع نموذج سلوكي يسترشد بالاستدلال الإحصائي.

لقد تجنبنا اعتبار الإنسان نموذجًا للذكاء: الفكرة هي الاهتمام بالسلوك الذكي بدلاً من الذكاء نفسه ، والذي يمكن أيضًا أن يكون نموذجًا لنظام ما. المفهوم هو محاكاة السلوكيات المفيدة ، والتعلم من الأمثلة ، وترك جانبا محاولة حل "مشكلة الذكاء" ، وكذلك التخلي عن مسألة إعطاء تسمية للمفهوم نفسه أو تعريفه بشكل لا لبس فيه. أمازون تمكن من تقديم المشورة دون فهم نموذج الشخصية ، بنفس الطريقة التي يمكن بها حظر رسائل البريد الإلكتروني غير المرغوب فيها.

ومع ذلك ، بالإضافة إلى جميع المزايا التي جلبتها هذه الآلات ، هناك مخاطر حقيقية وملموسة ليس فقط على وجودنا وحريتنا ، ولكن أيضًا على الخصوصية. "الرأي العام نفسه مشروط بالخوارزميات" أكد كريستيانيني. "لقد صنعنا آلات لم يعد بإمكاننا الاستغناء عنها وما زلنا نفتقر إلى المعايير والقوانين والقيم الثقافية التي نعيش معها". إنها مشكلة موضوعية للغاية تتعلق بالبنية الثقافية. هناك حاجة للأشخاص الذين "يرسمون" المشاكل الجديدة لنقل الوعي إلى الأجيال القادمة بهذه المخاطر ، وهذه المهمة ، بالنسبة لنيلو ، تنتمي إلى السياسة.

إنها مسألة تحكم التغيير مع إدراك الآثار العديدة: في المجال التعليمي ، على المستوى الاجتماعي ولكن أيضًا في أذهاننا. الآلات هي أداة قوية وأساسية ، فقط فكر في العديد من الإنجازات التي تحققت في المجالات الطبية والصناعية والعلمية. ومع ذلك ، نحن بحاجة إلى التفكير في العواقب الأخلاقية والثقافية التي ستترتب على الاستخدام الواسع النطاق للآلات الذكية. وهذا يعني ضرورة إجراء تغييرات تشريعية لتوضيح الأدوار والمسؤوليات.

المشكلة ليست الآلة ، ولكن الإنسان نفسه إذا لم يعالج القضايا من المنظور الصحيح. يتساءل المرء إذا كانت في عملية استبدال الإنسان هذه ما هي العواقب الأخلاقية والثقافية على المستوى العالمي. وخطر فقدان الإنسان لجزء من هويته ، وتقليص وجوده إلى ما يمكن للآلة فعله وإشباع الاحتياجات الجديدة المستحثة في الغالب.

وقد أعرب البرلمان الأوروبي عن نفسه بشأن هذه المسألة: "استخدامالذكاء الاصطناعي (AI) يجب أن تمنع التحيزات الجنسانية والاجتماعية والثقافية وأن تحمي التنوع اللغوي ، وهو حجر الزاوية للحقوق والقيم الأساسية لمجتمعنا ". مع 623 صوتًا مؤيدًا من الأعضاء الذين يريدون التأكيد على أهمية القيم الأخلاقية الأوروبية على أساس الاستخدام ، في المجالات التعليمية والثقافية ، للتقنيات التي تم تطويرها بفضل الذكاء الاصطناعي.

بموجب هذا القرار ، يدعو البرلمان الأوروبي "المفوضية الأوروبية وجميع الدول الأعضاء إلى مراعاة الجوانب الأخلاقية ، بما في ذلك من منظور جنساني ، في وضع السياسات والتشريعات المتعلقة بالذكاء الاصطناعي ، وإذا لزم الأمر ، تكييف التشريعات الحالية ، بما في ذلك برامج الاتحاد والمبادئ التوجيهية الأخلاقية بشأن استخدام الذكاء الاصطناعي ".

على وجه الخصوص ، يدعو البرلمانيون إلى تطوير مؤشرات محددة لقياس التنوع والتأكد من أن التوصيات الواردة في الخوارزميات ، وخاصة في خدمات البث الصوتي والمرئي ، لا تؤثر سلبًا على التنوع الثقافي واللغوي للاتحاد.

يتم التركيز أيضًا على انتشار أخبار وهمية، وهو موضوع ساخن أكده البروفيسور كريستيانيني أيضًا خلال الحدث. نحن بحاجة إلى تحديد كيفية استخدام وسائل الإعلام لتقنيات الذكاء الاصطناعي وأن نكون يقظين بشأن إساءة استخدام هذه التقنيات لنشر أخبار كاذبة.

تعليق