"كيف يمكن برمجة آلة أو خوارزمية على عامل أخلاقي مصطنع يجعلها تحسن التصرف؟
المعضلة الأخلاقية للذكاء الاصطناعي يثير الكثير من الجدل في حقول الفلسفة والتكنولوجيا على حد سواء، فسلوك تلك الآلات الذكية الاصطناعية المحتمل يبقى محل شك وريبة من كثيرين.
تضع نظرية "الواجب الأخلاقي" للفيلسوف الألماني إيمانويل كانط (1724 – 1804) قواعد عامة؛ وهي تمثل أساس نهج لجنة أخلاقيات السيارات الألمانية ذاتية القيادة، التي تنص على أنه لا ينبغي للآلة أن تميز بين الناس، لذلك لا يوجد خيار بين إنقاذ حياة رجل عجوز أو طفل أو إنقاذ حياة 5 أشخاص بدلا من شخص واحد.
يُسمى النهج الثاني النفعية أو العواقبية التي تشير إلى أن فعل الصواب لا يعني اتباع القواعد بحذافيرها وإنما التفكير في الخيار الذي يضمن أفضل النتائج الممكنة؛ أي التفكير في العواقب، وبناء على ذلك، ينبغي تفضيل إنقاذ 5 أرواح بدلا من حياة واحدة أو إنقاذ حياة شاب أكثر من حياة مسن، على حد تعبير الفيلسوف الفرنسي.
ليست هناك تعليقات:
إرسال تعليق