الآراء التي يتم تداولها في النقاش الأخلاقي حول إنشاء الذكاء الاصطناعي (AI) متنوعة بقدر ما يتم مناقشتها بشدة. لا يقتصر الأمر على مسألة ما إذا كنا سنلعب “دور الآلهة” من خلال إنشاء ذكاء اصطناعي حقيقي أم لا ، ولكن هناك أيضًا مسألة كيفية تثبيت مجموعة من الأخلاقيات الصديقة للإنسان داخل جهاز حساس.
مع تقسيم الإنسانية حاليًا عبر العديد من البلدان والأديان والجماعات المختلفة ، فإن السؤال حول من يمكنه إجراء المكالمة النهائية هو سؤال صعب. قد يُترك الأمر إلى أي بلد سيصل إلى هناك أولاً ، والرأي السائد داخل حكومتهم ومجتمعهم العلمي. بعد ذلك ، قد نضطر فقط إلى تركه يعمل ونأمل في الأفضل.
هل ولادة الذكاء الاصطناعي أمر لا مفر منه؟
في كل أسبوع ، يتم إصدار عشرات الأوراق الأكاديمية من الجامعات في جميع أنحاء العالم للدفاع بقوة عن الآراء المختلفة. أحد العوامل المثيرة للاهتمام هنا هو أنه من المقبول على نطاق واسع أن هذا الحدث سيحدث في غضون العقود القليلة القادمة. بعد كل شيء ، في عام 2011 ، أنشأ معهد كاليفورنيا للتكنولوجيا أول شبكة عصبية اصطناعية في أنبوب اختبار ، وأول روبوت به “عضلات” و “أوتار” معنا الآن في شكل Ecci ، ويتم تحقيق قفزات هائلة إلى الأمام في كل ما يتعلق الانضباط العلمي.
إنه أمر مثير بقدر ما هو لا يصدق أن نعتبر أننا قد نشهد مثل هذا الحدث. ذكرت إحدى الأوراق البحثية التي أعدها نيك بوستروم من قسم الفلسفة بجامعة أكسفورد أنه “يبدو أنه لا يوجد حاليًا أساس جيد لتعيين احتمال ضئيل للفرضية القائلة بأن الذكاء الفائق سيتم إنشاؤه خلال عمر بعض الأشخاص على قيد الحياة اليوم”. هذه طريقة معقدة للقول بأن الآلات فائقة الذكاء للخيال العلمي هي حقيقة مستقبلية محتملة للغاية.
أخلاقيات الروبوتات وأخلاقيات الآلة
إذن ، ما هي الأخلاق التي نناقشها هنا؟ تنظر Roboethics إلى حقوق الآلات التي نصنعها بنفس طريقة حقوق الإنسان الخاصة بنا. إنه شيء من التحقق من الواقع للنظر في الحقوق التي يمكن أن يتمتع بها الروبوت الحساس ، مثل حرية التعبير والتعبير عن الذات.
تختلف أخلاقيات الآلة قليلاً وتنطبق على أجهزة الكمبيوتر والأنظمة الأخرى التي يشار إليها أحيانًا بالعوامل الأخلاقية الاصطناعية (AMAs). وخير مثال على ذلك في اللغز العسكري والفلسفي حيث تكمن المسؤولية إذا مات شخص ما في “نيران صديقة” من طائرة بدون طيار تعمل بالذكاء الاصطناعي. كيف يمكنك محاكمة آلة عسكرية؟
في عام 1942 ، كتب إسحاق أسيموف قصة قصيرة حددت قوانينه الثلاثة للروبوتات:
1. لا يجوز للروبوت أن يؤذي إنسانًا ، أو يسمح له ، من خلال التقاعس عن العمل ، بإلحاق الأذى به.
2. يجب أن يمتثل الروبوت للأوامر الصادرة عن البشر ، إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول.
3. يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو القانون الثاني.
هذا الثلاثي المبتكر بذكاء من القواعد التي تحكم السلوك يبدو معصومًا عن الخطأ ، ولكن كيف سيكون حالهم في الحياة الواقعية؟ أشارت سلسلة قصص Asimov حول هذا الموضوع إلى أنه لا توجد قواعد يمكن أن تحكم السلوك بشكل كافٍ بطريقة آمنة تمامًا في جميع المواقف المحتملة ، وألهمت فيلم 2004 الذي يحمل نفس الاسم: “I ، Robot”.
من الذي يستدعي اللقطات؟
تثير مجالات التطوير الأخرى المثيرة للجدل مثل التكنولوجيا الحيوية أيضًا مسألة ما إذا كنا نحاول أن نلعب دور الله أم لا. هذه أسئلة صعبة ، ولكن يبدو من شبه الحتمي أن التقدم العلمي سيدفع الحدود تمامًا خلال العقود القادمة. إن المزيج الفعال لفضولنا اللامتناهي والتطبيقات التجارية المحتملة سيواصل حتماً المضي قدمًا.
فأين هذا المكان تكنولوجيا الذكاء الاصطناعي؟ بالتأكيد ، القوة التي يحتمل أن يحكمها الذكاء الاصطناعي الخارق ، والتكنولوجيا التي يمكن أن تخلقها ، والدمار الذي يمكن أن تحدثه إذا خرجت عن نطاق السيطرة ، تضعها في ملعب مختلف تمامًا لتكوين الطحالب بشكل مصطنع لتسخير طاقة ضوء الشمس؟
يمكن القول إن اليابان هي الأوفر حظًا حاليًا لأنظمة الروبوتات ، ومع تقلص عدد السكان الذين يتألفون من نسبة متزايدة من كبار السن الذين يحتاجون إلى معاشات تقاعدية ورعاية صحية ممولة من قبل أعداد محدودة من دافعي الضرائب العاملين ، يبدو من غير المحتمل أن تتراجع اليابان فجأة بسبب النقاش الأخلاقي.
بقدر ما هو مثير للاهتمام النظر في الآثار الأخلاقية للذكاء الاصطناعي ، فمن السهل التغاضي عن حقيقة أن هذه مشكلة عالمية تتعلق بالعرق البشري وليست قضية خاصة بدولة معينة. الأمر لا يشبه الهبوط على القمر حيث يمكن مواجهة الدول بعضها البعض في سيناريو سباق الفضاء. ولكن ربما مع التأثير المتزايد للإنترنت الذي يربط بيننا جميعًا معًا ، سيتم اتخاذ بعض القرارات بالطريقة العالمية التي تستحقها.