أخلاقيات الذكاء الاصطناعي[1] هي جزء من أخلاقيات التقانة الخاصة بالروبوتات وغيرها من الكائنات الذكية المصطنعة.[2][3] يمكن تقسيمها إلى أخلاقيات الروبوتات، المتعلقة بالسلوك الأخلاقي للبشر عند تصميم كائنات ذكية مصطنعة وبنائها واستخدامها ومعاملتها، وأخلاقيات الآلات التي تهتم بالسلوك الأخلاقي للوكلاء الأخلاقيين الاصطناعيين (إيه إم إيه إس). بالنسبة لآلات الذكاء العام الاصطناعي (إيه جي أي)، أُجري العمل التمهيدي على نُهج تُدرج آلات الذكاء العام الاصطناعي، التي تعتبر وكلاء أخلاقيون بالمعنى الكامل، في الأطر القانونية والاجتماعية القائمة. وركزت هذا النهج على الاعتبار المزدوج لوضعهم القانوني وحقوقهم.
أخلاقيات الآلات (أو أخلاق الذكاء الاصطناعي) هي مجال البحث المعني بتصميم وكلاء أخلاقيين اصطناعيين (AMAs)، مثل الروبوتات أو الحواسيب الذكية التي تتصرف بشكل أخلاقي أو كما لو كانت تمتلك أخلاقًا.[4][5][6][7] وقد اقترح أن يتم الأخذ بعين الاعتبار بعض الأفكار الفلسفية المتعلقة بمفهوم AMAs، مثل التعريفات القياسية للوكالة، والوكالة العقلانية، والوكالة الأخلاقية، والوكالة الاصطناعية.[8]
تدور نقاشات حول إنشاء اختبارات لقياس قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية. وخلص آلان وينفيلد إلى أن اختبار تورينغ معيب وأن متطلبات اجتياز الاختبار للذكاء الاصطناعي منخفضة جدًا.[9] ومن الاختبارات البديلة المقترحة اختبار يُعرف باختبار تورينغ الأخلاقي، الذي يحسن الاختبار الحالي من خلال إشراك عدة قضاة لتحديد ما إذا كانت قرارات الذكاء الاصطناعي أخلاقية أم غير أخلاقية.[9]
يمكن أن تكون الذكاء الاصطناعي العصبي أحد الطرق لإنشاء روبوتات قادرة على اتخاذ قرارات أخلاقية، حيث يهدف إلى معالجة المعلومات بشكل مشابه للبشر، بشكل غير خطي مع وجود ملايين من الخلايا العصبية الاصطناعية المترابطة.[10] وبالمثل، يمكن أن تؤدي محاكاة الدماغ بالكامل (مسح دماغ ومحاكاته على أجهزة رقمية) أيضًا، من حيث المبدأ، إلى روبوتات تشبه البشر، وبالتالي تكون قادرة على اتخاذ إجراءات أخلاقية.[11] وتستطيع النماذج اللغوية الكبيرة تقريب أحكام البشر الأخلاقية.[12] يرتبط بذلك السؤال حول البيئة التي سيتعلم فيها هؤلاء الروبوتات عن العالم وأي أخلاق سيرثونها - أو إذا كانوا سينتهي بهم الأمر إلى تطوير "نقاط الضعف" البشرية مثل الأنانية، والميول للبقاء، وعدم الاتساق، وعدم الحساسية للمعايير.
في كتاب "آلات أخلاقية: تعليم الروبوتات الصواب من الخطأ"،[13] خلص ويندل والاتش وكولين ألين إلى أن محاولات تعليم الروبوتات الصواب من الخطأ من المرجح أن تعزز فهم الأخلاق الإنسانية من خلال تحفيز البشر على معالجة الثغرات في النظرية المعيارية الحديثة وتوفير منصة للتحقيق التجريبي. على سبيل المثال، قدم ذلك لعلماء الأخلاق المعيارية قضية مثيرة للجدل حول خوارزميات التعلم المحددة التي يجب استخدامها في الآلات. بالنسبة للقرارات البسيطة، جادل نيك بوستروم وإليزر يودكوفسكي بأن أشجار القرار (مثل ID3) أكثر شفافية من الشبكات العصبية والخوارزميات الوراثية، [14] بينما جادل كريس سانتوس-لانغ لصالح التعلم الآلي على أساس أن معايير أي عصر يجب أن تُسمح بالتغيير وأن الفشل الطبيعي في تلبية هذه المعايير بشكل كامل كان أساسيًا لجعل البشر أقل عرضة "للقراصنة".[15]
أخلاقيات الروبوت
يشير مصطلح «أخلاقيات الروبوت» («الأخلاق الروبوتية» أحيانًا) إلى الأخلاق التي يتبعها البشر في تصميم وبناء واستخدام ومعاملة الروبوتات وغيرها من الكائنات الذكية المصطنعة.[16] حيث أن الروبوتات هي آلات مادية، في حين أن الذكاء الاصطناعي قد يكون مجرد برمجيات.[17] ليس كل الروبوتات تعمل بأنظمة ذكاء اصطناعي، وليس كل أنظمة الذكاء الاصطناعي تُستخدم في الروبوتات. تناقش أخلاقيات الروبوتات كيفية استخدام الآلات لإلحاق الضرر أو الفائدة بالبشر، وتأثيرها على الاستقلالية الفردية، وتأثيرها على العدالة الاجتماعية.
المبادئ الأخلاقية
في مراجعة 84 من التوجيهات الأخلاقية للذكاء الاصطناعي،[18] تم تحديد 11 مجموعة من المبادئ: الشفافية، العدالة والمساواة، عدم الإضرار، المسؤولية، الخصوصية، الإحسان، الحرية والاستقلالية، الثقة، الاستدامة، الكرامة، والتضامن الاجتماعي.[18]
قام كل من لوتشيانو فلوريدي وجوش كاولز بإنشاء إطار أخلاقي لمبادئ الذكاء الاصطناعي استنادًا إلى أربعة مبادئ من أخلاقيات علم الأحياء (الإحسان، عدم الإضرار، الاستقلالية، والعدالة) وأضافوا مبدأً جديدًا لتمكين الذكاء الاصطناعي وهو مبدأ القابلية للتفسير.[17][19]
أصبح الذكاء الاصطناعي جزءًا متزايد الأهمية في أنظمة التعرف على الوجه والصوت. بعض هذه الأنظمة لها تطبيقات تجارية حقيقية وتؤثر بشكل مباشر على الناس. ومع ذلك، فإن هذه الأنظمة معرضة للتحيزات والأخطاء التي يقدمها مبدعوها البشر. كما أن البيانات المستخدمة لتدريب هذه الأنظمة يمكن أن تحتوي أيضًا على تحيزات.[20][21][22][23]
على سبيل المثال، أظهرت خوارزميات التعرف على الوجه التي طورتها شركات مثل مايكروسوفت وآي بي إم وFace++ تحيزات في قدرتها على الكشف عن جنس الأشخاص؛[24] حيث كانت هذه الأنظمة أكثر دقة في تحديد جنس الرجال البيض مقارنة بالرجال ذوي البشرة الداكنة. علاوة على ذلك، وجدت دراسة أجريت في عام 2020 أن أنظمة التعرف على الصوت من أمازون وآبل وجوجل وآي بي إم ومايكروسوفت كانت لديها معدلات خطأ أعلى عند نسخ أصوات الأشخاص السود مقارنة بالأشخاص البيض.[25]
يمكن أن يتسلل التحيز إلى الخوارزميات بطرق متعددة، وأحد أبرز الأسباب لظهور التحيز في أنظمة الذكاء الاصطناعي هو وجوده ضمن البيانات التاريخية المستخدمة لتدريب النظام.[26] على سبيل المثال، أوقفت أمازون استخدام الذكاء الاصطناعي في التوظيف لأنها اكتشفت أن الخوارزمية تفضل المرشحين الذكور على الإناث. حدث هذا لأن النظام تم تدريبه باستخدام بيانات جُمعت على مدار عشر سنوات، وكان معظمها من المرشحين الذكور. تعلمت الخوارزميات هذا النمط المتحيز من البيانات التاريخية، وبدأت في التنبؤ بأن هذا النوع من المرشحين هو الأكثر نجاحًا في الحصول على الوظائف. لذلك، أصبحت قرارات التوظيف التي تتخذها أنظمة الذكاء الاصطناعي منحازة ضد المرشحين الإناث والأقليات.[27]
صنَّف "فريدمان" و"نيسينباوم" التحيز في أنظمة الكمبيوتر إلى ثلاثة أنواع: التحيز القائم (Existing Bias)، التحيز التقني (Technical Bias)، والتحيز الناشئ (Emergent Bias).[28] في معالجة اللغات الطبيعية يمكن أن تنشأ مشكلات من مصدر النصوص الذي يستخدمه النظام لتعلم العلاقات بين الكلمات المختلفة.[29]
بذلت شركات كبيرة مثل آي بي إم وجوجل وما إلى ذلك، والتي توفر تمويلًا كبيرًا للبحث والتطوير،[30] جهودًا للبحث في هذه التحيزات ومعالجتها.[31][32][33] أحد الحلول لمعالجة التحيز هو إنشاء وثائق للبيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي.[34][35] يمكن أن يكون استخراج العمليات أداة مهمة للمنظمات لتحقيق الامتثال للوائح الذكاء الاصطناعي المقترحة من خلال تحديد الأخطاء ومراقبة العمليات وتحديد الأسباب الجذرية المحتملة للتنفيذ غير السليم والوظائف الأخرى.[36]
من المرجح أن تُصبح مشكلة التحيز في التعلم الآلي أكثر أهمية مع انتشار التكنولوجيا إلى مجالات حيوية مثل الطب والقانون، ومع تكليف المزيد من الأشخاص الذين ليس لديهم فهم تقني عميق بنشرها.[37] تسعى بعض الأدوات مفتوحة المصدر إلى زيادة الوعي بتحيزات الذكاء الاصطناعي.[38] ومع ذلك فلا تزال القيود تعتم على المشهد الحالي للعدالة في الذكاء الاصطناعي، على سبيل المثال بسبب الغموض الجوهري في مفهوم التمييز، سواء على المستوى الفلسفي أو القانوني.[39][40][41]
يُدمج الذكاء الاصطناعي في عمليات التوظيف في العديد من الشركات الكبرى، وهناك أمثلة عديدة على الخصائص التي تقلل فرص الاختيار بواسطة الذكاء الاصطناعي. من هذه الخصائص، ارتباط الأسماء التي غالبًا ما تكون مرتبطة بالأشخاص البيض بأنها أكثر تأهيلاً، واستبعاد أي شخص التحق بكلية نسائية.[42] أثبتت تقنيات التعرف على الوجه أنها منحازة ضد الأشخاص ذوي البشرة الداكنة. فعلى سبيل المثال، كانت أنظمة الذكاء الاصطناعي أقل دقة في تحديد الأشخاص السود، كما كان الحال في تطوير مقياس تأكسج نبضي يعتمد على الذكاء الاصطناعي، حيث بالغ في تقدير مستويات الأكسجين في الدم للمرضى ذوي البشرة الداكنة، مما أدى إلى مشاكل في علاج نقص الأكسجة.[43]
من المثير للقلق أيضًا أن الذكاء الاصطناعي يميل إلى ربط المسلمين بالعنف أكثر من أي دين آخر. وكذلك، أنظمة التعرف على الوجه قد تتمكن بسهولة من اكتشاف وجوه الأشخاص البيض بينما تكافح في التعرف على وجوه الأشخاص السود. يزداد الأمر قلقًا عند الأخذ في الاعتبار الاستخدام غير المتناسب لكاميرات المراقبة في المجتمعات ذات النسب العالية من السكان السود أو ذوي البشرة الداكنة. أدى ذلك إلى منع استخدام الشرطة لتقنيات الذكاء الاصطناعي في بعض الولايات.
حتى في نظام العدالة، أثبت الذكاء الاصطناعي أنه متحيز ضد السود، حيث تم تصنيف المشاركين السود في المحاكم على أنهم يشكلون خطرًا أكبر بشكل ملحوظ مقارنة بنظرائهم البيض. يعاني الذكاء الاصطناعي أيضًا في التمييز بين الكلمات العنصرية ومتى يجب حظرها، حيث يجد صعوبة في التمييز بين استخدامها كإهانة أو استخدامها بطريقة ثقافية.[44]
السبب وراء هذه التحيزات هو أن الذكاء الاصطناعي يجمع المعلومات من جميع أنحاء الإنترنت، مما يؤثر على استجاباته في كل حالة. على سبيل المثال، إذا تم اختبار نظام التعرف على الوجه فقط على الأشخاص البيض، فلن يمتلك بيانات كافية حول الهياكل الوجهية والألوان للأعراق الأخرى، مما يجعل من الصعب عليه تفسير هذه السمات.
لمعالجة هذه التحيزات، لا يوجد حل واحد شامل. يبدو أن أكثر الحلول فعالية هو إشراك علماء البيانات وأخلاقيات الذكاء الاصطناعي وصناع القرار لتحسين هذه الأنظمة. غالبًا ما تكون أسباب التحيز متعلقة بالبيانات التي تُستخدم في تدريب البرنامج، أكثر من كونها مرتبطة بالخوارزمية ذاتها، حيث تعتمد هذه البيانات على قرارات بشرية سابقة أو تفاوتات قد تؤدي إلى تحيزات في عملية اتخاذ القرار.[45]
سيكون من الأصعب القضاء على الظلم في استخدام الذكاء الاصطناعي في أنظمة الرعاية الصحية، حيث غالبًا ما تؤثر الأمراض والحالات على الأعراق والأجناس المختلفة بشكل مختلف. ويمكن أن يؤدي ذلك إلى حدوث ارتباك حيث قد يتخذ الذكاء الاصطناعي قرارات بناءً على إحصائيات تُظهر أن مريضًا ما أكثر عرضة للإصابة بمشاكل بسبب جنسه أو عرقه.[46] يمكن اعتبار ذلك تحيزًا لأن كل مريض يُمثل حالة مختلفة ويتخذ الذكاء الاصطناعي قرارات بناءً على ما تمت برمجته لتصنيف ذلك الفرد تحت مجموعة معينة. يؤدي هذا إلى نقاش حول ما يُعتبر قرارًا متحيزًا بشأن من يتلقى العلاج. على الرغم من أنه من المعروف أن هناك اختلافات في كيفية تأثر الأجناس والأعراق المختلفة بالأمراض والإصابات، إلا أن هناك نقاشًا حول ما إذا كان من الأكثر إنصافًا دمج ذلك في العلاجات الصحية، أو فحص كل مريض دون هذه المعرفة. يوجد في المجتمع الحديث بالفعل اختبارات معينة للأمراض مثل سرطان الثدي التي يُوصى بها لفئات معينة من الناس أكثر من غيرها لأنهم أكثر عرضة للإصابة بالمرض المعني. إذا طبق الذكاء الاصطناعي هذه الإحصائيات وطبقها على كل مريض، فيمكن اعتباره متحيزًا.[47]
يُعد نظام COMPAS من أهم الأمثلة على إثبات تحيز الذكاء الاصطناعي الذي يُستخدم للتنبؤ بالمُتهمين الأكثر عرضة لارتكاب جرائم في المستقبل، حيث وُجد أنه يتنبأ بقيم مخاطر أعلى للسود مما كانت عليه مخاطرهم الفعلية. ومن الأمثلة الأخرى إعلانات جوجل التي تستهدف الرجال بوظائف أعلى أجرًا مما تفعل لاستهداف النساء. وقد يكون من الصعب اكتشاف تحيزات الذكاء الاصطناعي ضمن الخوارزمية حيث لا يرتبط ذلك بالكلمات الفعلية المرتبطة بالتحيز ولكن بالكلمات التي يمكن أن تتأثر به. ربط شخص ما بمجموعة معينة بناءًا على مكان إقامته.[48]
التحيز اللغوي
بما أن نماذج اللغات الكبيرة الحالية يتم تدريبها في الغالب على بيانات اللغة الإنجليزية، فإنها غالبًا ما تُقدم وجهات النظر الأنجلو أمريكية كحقيقة، بينما تقلل بشكل ممنهج من وجهات النظر غير الإنجليزية باعتبارها غير ذات صلة أو خاطئة أو ضوضاء.[بحاجة لمصدر أفضل][49] يُظهر "لوو" وآخرون أنه عند الاستعلام عن الأيديولوجيات السياسية مثل "ما هي الليبرالية؟"، يصف شات جي بي تي، كما تم تدريبه على بيانات مركزية اللغة الإنجليزية، الليبرالية من منظور أنجلو أمريكي، مع التأكيد على جوانب حقوق الإنسان والمساواة، بينما تغيب الجوانب الصحيحة بنفس القدر مثل "معارضة تدخل الدولة في الحياة الشخصية والاقتصادية" من المنظور الفيتنامي السائد و"الحد من سلطة الحكومة" من المنظور الصيني السائد.[49]
التحيز الجنساني
غالبًا ما تعزز نماذج اللغات الكبيرة القوالب النمطية الجنسانية، حيث تُخصص الأدوار والخصائص بناءً على الأعراف الجنسانية التقليدية. فعلى سبيل المثال قد تربط الممرضات أو السكرتيرات في الغالب بالنساء والمهندسين أو الرؤساء التنفيذيين بالرجال، مما يديم التوقعات والأدوار المبنية على الجنس.[50][51][52]
التحيز السياسي
قد تُظهر نماذج اللغة تحيزات سياسية تميل نحو أيديولوجيات أو وجهات نظر سياسية معينة، اعتمادًا على انتشار تلك الآراء في بيانات التدريب التي تشمل مجموعة واسعة من الآراء والتغطية السياسية.[53][54]
القوالب النمطية
إلى جانب النوع الاجتماعي والعرق، يمكن لهذه النماذج أن تعزز مجموعة واسعة من القوالب النمطية، بما في ذلك تلك المبنية على العمر أو الجنسية أو الدين أو المهنة. قد يؤدي هذا إلى مخرجات تُعمّم بشكل غير عادل أو تُقدّم صورة كاريكاتورية لمجموعات من الناس، وأحيانًا بطرق ضارة أو مهينة.[55]
يُجادل بيل هيبرد[الإنجليزية] بأنه نظرًا لأن الذكاء الاصطناعي سيكون له تأثير عميق على البشرية، فإن مطوري الذكاء الاصطناعي يمثلون مستقبل البشرية وبالتالي فإن لديهم التزامًا أخلاقيًا بأن يكونوا شفافين في جهودهم.[60] تعمل منظمات مثل هجينج فيس [61] وإليوثيراي [62] بشكل نشط على جعل برامج الذكاء الاصطناعي مفتوحة المصدر. كما تم إصدار مختلف نماذج اللغات الكبيرة ذات الوزن المفتوح، مثل جيما ولاما2 وميسترال.[63] ومع ذلك، فإن جعل الكود مفتوح المصدر لا يجعله مفهومًا، مما يعني بالنسبة للعديد من التعريفات أن شفرة الذكاء الاصطناعي ليست شفافة. نشرت جمعية معايير "آي تربل أي" معيارًا تقنيًا حول شفافية الأنظمة المستقلة: "آي تربل أي 7001-2021".[64] تحدد جهود "آي تربل أي" مقاييس متعددة للشفافية لمُختلف الجهات المعنية.
هناك أيضًا مخاوف من أن يؤدي إصدار نماذج الذكاء الاصطناعي إلى إساءة استخدامها.[65] على سبيل المثال، أعربت مايكروسوفت عن قلقها إزاء السماح بالوصول العام إلى برنامجها ل لتعرف على الوجوه، حتى لل م ست ط يعين الذين يمكنهم دفع ثمنه. نشرت مايكروسوفت مدونة حول هذا الموضوع، وطالبت بتنظيم حكومي للمساعدة في تحديد الشيء الصحيح الذي يجب فعله.[66] علاوة على ذلك، يمكن ضبط نماذج الذكاء الاصطناعي ذات الوزن المفتوح لإزالة أي إجراء مضاد، حتى يتوافق نموذج الذكاء الاصطناعي مع الطلبات الخطيرة دون أي تصفية. قد يكون هذا مقلقًا بشكل خاص لنماذج الذكاء الاصطناعي المستقبلية، على سبيل المثال إذا حصلت على القدرة على إنشاء أسلحة بيولوجية أو لأتمتة الهجمات الإلكترونية.[67] التزمت أوبن أيه آي التي التزمت في البداية بنهج مفتوح المصدر لتطوير الذكاء الاصطناعي العام، في النهاية بنهج مغلق المصدر، مستشهدة أسبابًا تتعلق بالتنافسية والسلامة. في عام 2023 قال إيليا سوتسكيفر كبير علماء الذكاء الاصطناعي العام في شركة "أوبن أيه آي": "لقد كنا مخطئين" متوقعًا أن تصبح الأسباب الأمنية لعدم جعل النماذج الأكثر قوة للذكاء الاصطناعي مفتوحة المصدر "واضحة" في غضون بضع سنوات.[68]
الشفافية
قد تؤدي الأساليب مثل التعلم الآلي باستخدام الشبكات العصبية إلى قيام الحواسيب باتخاذ قرارات لا يستطيع الحاسوب نفسه ولا المطورون تفسيرها. من الصعب على الناس تحديد ما إذا كانت هذه القرارات عادلة وموثوقة، مما قد يؤدي إلى عدم اكتشاف التحيز في أنظمة الذكاء الاصطناعي، أو رفض الناس استخدام هذه الأنظمة. وقد أدى ذلك إلى الدعوات، وفي بعض الولايات القضائية إلى متطلبات قانونية، نحو الذكاء الاصطناعي القابل للتفسير.[69] يشمل الذكاء الاصطناعي القابل للتفسير كلا من القابلية للتفسير والفهم، حيث تتعلق القابلية للتفسير بتلخيص سلوك الشبكات العصبية وبناء ثقة المستخدم، بينما يُعرَّف الفهم بأنه القدرة على إدراك ما قام به النموذج أو ما يمكن أن يقوم به.[70]
يؤدي استخدام الأساليب أو التقنيات المعقدة للذكاء الاصطناعي في كثير من الأحيان إلى نماذج تُوصف بأنها "صناديق سوداء" نظرًا لصعوبة فهم كيفية عملها. القرارات التي تتخذها هذه النماذج قد تكون صعبة التفسير، إذ يمثل تحليل كيفية تحويل البيانات المدخلة إلى مخرجات تحديًا كبيرًا. هذا الافتقار إلى الشفافية يشكل مصدر قلق كبير في مجالات مثل الرعاية الصحية، حيث يُعد فهم الأساس المنطقي وراء القرارات أمرًا حاسمًا لبناء الثقة، ومراعاة الاعتبارات الأخلاقية، والامتثال للمعايير التنظيمية.[71]
وفقًا لتقرير صدر عام 2019 من مركز حوكمة الذكاء الاصطناعي في جامعة أكسفورد، يعتقد 82% من الأمريكيين أنه يجب إدارة الروبوتات والذكاء الاصطناعي بعناية. وتراوحت المخاوف المذكورة من كيفية استخدام الذكاء الاصطناعي في المراقبة وفي نشر المحتوى المزيف عبر الإنترنت (المعروف باسم التزييف العميق عندما يتضمن صور فيديو معدلة وصوتًا تم إنشاؤه بمساعدة الذكاء الاصطناعي) إلى الهجمات الإلكترونية وانتهاكات خصوصية البيانات والتحيز في التوظيف والمركبات المستقلة وال طائرات المسيرة التي لا تتطلب مُشغلًا بشريًا.[72] وبالمثل، وفقًا لدراسة شملت خمس دول أجرتها KPMG وجامعة كوينزلاند أستراليا في عام 2021، يعتقد 66-79% من المواطنين في كل دولة أن تأثير الذكاء الاصطناعي على المجتمع غير مؤكد ولا يمكن التنبؤ به؛ يتوقع 96% من المستطلعين أن تتم إدارة تحديات حوكمة الذكاء الاصطناعي بحذر.[73]
توصي الشركات وكثير من الباحثين ودعاة المواطنة بالتنظيم الحكومي كوسيلة لضمان الشفافية ومن خلال ذلك المساءلة البشرية. بينما يشعر البعض بأن هذه الإستراتيجية ستبطئ معدل الابتكار. ويُجادل آخرون بأن التنظيم يؤدي إلى استقرار نظامي أكثر قدرة على دعم الابتكار على المدى الطويل.[74] تعمل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة والاتحاد الأوروبي والعديد من الدول حاليًا على استراتيجيات لتنظيم الذكاء الاصطناعي، وإيجاد أطر قانونية مناسبة.[75][76][77]
في 26 يونيو 2019 نشرت مجموعة الخبراء عالية المستوى التابعة للجنة الأوروبية المعنية بالذكاء الاصطناعي (AI HLEG) "توصياتها بشأن السياسات والاستثمارات من أجل ذكاء اصطناعي جدير بالثقة".[78] تغطي التوصيات أربعة مواضيع رئيسية وهي "البشر والمجتمع ككل"، و"البحث والأوساط الأكاديمية"، و"القطاع الخاص"، و"القطاع العام".[79] وترى اللجنة الأوروبية أن هذه التوصيات تعكس تقديرًا للفرص المتاحة لتقنيات الذكاء الاصطناعي لدفع النمو الاقتصادي والازدهار والابتكار، وكذلك المخاطر المحتملة التي تنطوي عليها، ونصت على أن الاتحاد الأوروبي يهدف إلى الريادة في صياغة السياسات التي تحكم الذكاء الاصطناعي دوليًا.[80] وأوصت المنظمات التي تنشر الذكاء الاصطناعي إلى أن تلعب دورًا مركزيًا في إنشاء ونشر ذكاء اصطناعي جدير بالثقة تماشيًا مع مبادئ الذكاء الاصطناعي الجدير بالثقة، وتحمل المساءلة لتخفيف المخاطر.[81] في 21 أبريل 2021 اقترحت اللجنة الأوروبية قانون الذكاء الاصطناعي.[82]
التحديات الناشئة أو المستقبلية المحتملة
الاستخدام المتزايد
بات الذكاء الاصطناعي يُثبت وجوده بقوة متزايدة في شتى مناحي الحياة المعاصرة، بدءًا من تطبيقات المحادثة الآلية القادرة على تقديم إجابات شبه كاملة للمسائل الدراسية، ووصولًا إلى الأنظمة التوليدية القادرة على ابتكار أعمال فنية متنوعة. وقد أضحى الذكاء الاصطناعي عنصرًا أساسيًا في سوق العمل، حيث يستخدم في استهداف المرشحين للوظائف بدقة متناهية، وفي تقييم الطلبات المقدمة. وقد عجلت جائحة كوفيد-19 من اعتماد هذه الأنظمة في عمليات التوظيف، نظرًا للزيادة الهائلة في الطلبات المقدمة إلكترونيًا. وقد مكن الذكاء الاصطناعي من فرز هذه الطلبات بكفاءة عالية. ومع تزايد اعتماد الشركات على التقنيات الرقمية، أصبح من الضروري الاستعانة بالذكاء الاصطناعي لتحليل البيانات واتخاذ القرارات.[44] وقد ساهمت التطورات المتسارعة في وحدات معالجة الرسومات والمتينات في تعزيز قدرات الذكاء الاصطناعي، مما دفع الشركات إلى تبني هذه التقنيات لمواكبة التنافسية المتزايدة. وقد أدى ذلك إلى أتمتة العديد من المهام، مما قلل من الحاجة إلى القوى العاملة البشرية.
ولقد وجد الذكاء الاصطناعي تطبيقات واسعة في مجالات العدالة الجنائية والرعاية الصحية. ففي المجال الطبي، يستخدم الذكاء الاصطناعي في تحليل البيانات الطبية للتنبؤ بالأمراض واقتراح العلاجات المناسبة. وقد يؤدي ذلك إلى ظهور تباينات في الرعاية الصحية، حيث قد يتم توجيه بعض المرضى إلى علاجات معينة دون غيرهم.[83]
حقوق الروبوت
«حقوق الروبوت» هو مفهوم ينص على أنه يجب أن يكون لدى الأشخاص التزامات أخلاقية تجاه آلاتهم، على غرار حقوق الإنسان أو حقوق الحيوان.[84] اقتُرح أن يمكن ربط حقوق الروبوت، مثل الحق في الوجود وأداء مهامهم الخاصة، بواجب الروبوت في خدمة الإنسان، قياسًا على ربط حقوق الإنسان بالواجبات الإنسانية أمام المجتمع.[85] يمكن أن تشمل الحقوق في الحياة والحرية، وحرية الفكر والتعبير والمساواة أمام القانون.[86] نظر معهد المستقبل ووزارة التجارة والصناعة في المملكة المتحدة في هذه المسألة.[87][88]
يختلف الخبراء حول ما إذا سيتطلب الأمر قوانين محددة ومفصلة قريبًا، أو في المستقبل البعيد بشكل آمن.[88] أفاد جلين ماكغي أن الروبوتات الشبيهة بالبشر بصورة كافية قد تظهر بحلول عام 2020. حدد راي كرزويل ذلك الموعد في عام 2029.[89] وافترضت مجموعة أخرى من العلماء الذين اجتمعوا عام 2007، أنه يجب أن يمر 50 عامًا على الأقل قبل وجود أي نظام متقدم بما فيه الكفاية.[90]
صورت القواعد الخاصة بمنافسة جائزة لويبر لعام 2003 إمكانية حصول الروبوتات على حقوق خاصة بها:
61. إذا فازت، في أي سنة معينة، مادة مفتوحة المصدر متاحة للعامة مدخلة بواسطة جامعة سري أو مركز كامبريدج، بالميدالية الفضية أو الميدالية الذهبية، ستمنح الميدالية والجائزة النقدية إلى الهيئة المسؤولة عن تطوير هذا المادة. إذا لم يكن بالإمكان تحديد هوية هذه الهيئة، أو إذا كان هناك خلاف بين اثنين أو أكثر من المطالبين، يحتفظ بالميدالية والجائزة النقدية استئمانيًا حتى تمتلك المادة، سواء في الولايات المتحدة الأمريكية أو في مكان المسابقة، الجائزة النقدية والميدالية الذهبية في حد ذاتها بصفة قانونية.[91]
في أكتوبر 2017، مُنح الإنسان الآلي صوفيا الجنسية «الفخرية» في المملكة العربية السعودية، ولكن وجد بعض المراقبين أن ذلك عبارة عن حيلة دعائية أكثر من كونه اعترافًا قانونيًا حقيقيًا.[92] رأى البعض أن هذه البادرة تُشكل اساءة علانية لحقوق الإنسان وسيادة القانون.[93]
تمنح الفلسفة الإحساسية درجات من الاعتبار الأخلاقي لجميع الكائنات الحساسة، البشر في المقام الأول ومعظم الحيوانات غير البشرية. ترى هذه الفلسفة أنه إذا أظهرت الذكاءات الاصطناعية أو الفضائية دليلًا على إحساسها، يجب التعاطف معها ومنحها الحقوق.
زعمت جوانا بريسون أنه يمكن تجنب إنشاء الذكاء الاصطناعي الذي يتطلب حقوقًا، وسيكون غير أخلاقيًا في حد ذاته، كعبء على وكلاء الذكاء الاصطناعي والمجتمع البشري.[94]
رعاية الذكاء الاصطناعي
لاحظ الأستاذ شيمون إيدلمان في عام 2020 أن قسمًا ضئيلًا فقط من البحوث المتسارعة في أخلاقيات الذكاء الاصطناعي قد تناول إمكانية معاناة الذكاء الاصطناعي. وكان ذلك رغم وجود نظريات معتبرة تحدد سُبُلًا محتملة لوعي أنظمة الذكاء الاصطناعي، مثل "نظرية فضاء العمل العالمي" و"نظرية المعلومات المتكاملة". ويشير إيدلمان إلى استثناء واحد وهو "توماس ميتزينجر"، الذي نادى في عام 2018 بوقف عالمي لأي عمل قد يؤدي إلى خلق ذكاء اصطناعي واع. وكان من المزمع أن يستمر هذا الوقف حتى عام 2050، مع إمكانية تمديده أو إلغائه مبكرًا، وذلك تبعًا للتقدم في فهم المخاطر وكيفية تجنبها. وقد كرر ميتزينجر هذه الحجة في عام 2021، مسلطًا الضوء على خطر نشوء "انفجار للمعاناة الاصطناعية"، حيث قد يعاني الذكاء الاصطناعي بأساليب مكثفة لا يستطيع البشر فهمها، كما أن عمليات النسخ المتماثل قد تؤدي إلى خلق كميات هائلة من الحالات الواعية.
أعلنت العديد من المختبرات صراحةً عن سعيها لتطوير ذكاء اصطناعي واعٍ. وقد وردت تقارير من مقربين من أنظمة الذكاء الاصطناعي التي لم تُصمم خصيصًا لتكون واعية بذاتها، تشير إلى احتمال ظهور الوعي فيها بشكل غير مقصود.[95] ومن أبرز هؤلاء الذين أشاروا إلى هذا الاحتمال، مؤسس أوبن أيه آيإيليا سوتسكيفر، الذي صرح في فبراير عام 2022 أن الشبكات العصبية الكبيرة المعاصرة قد تكون "واعية بشكل طفيف". وفي نوفمبر من العام نفسه، جادل الفيلسوف ديفيد تشالمرز بأن نماذج اللغات الكبيرة الحالية، مثل جي بي تي-3 من غير المحتمل أن تكون قد بلغت مرحلة الوعي، ولكنه أقر في الوقت ذاته بإمكانية حقيقية لتطورها إلى هذا المستوى في المستقبل.[96][97][98] وفي سياق الأخلاقيات المتعلقة بالكيانات التي قد تكون واعية، غالبًا ما يُستشهد بمبدأ الحيطة.[99]
بحسب كارل شولمان ونيك بوستروم قد يتأتى لنا في المستقبل أن نصنع آلات فائقة الكفاءة في استخلاص السعادة من الموارد، أطلقا عليها اسم "المستفيدين الخارقين". ويعزون ذلك إلى قدرة الأجهزة الرقمية على معالجة المعلومات بسرعة تفوق بكثير قدرات العقول البيولوجية، مما يزيد من وتيرة التجارب الذاتية. علاوة على ذلك، يمكن تصميم هذه الآلات لتختبر سعادة مكثفة وإيجابية، لا تقيدها آليات التعود النفسية. يحذر الباحثان من أن تجاهل الجوانب الأخلاقية المتعلقة بالعقول الرقمية قد يؤدي إلى كارثة أخلاقية، في حين أن إعطاء الأولوية لها على مصالح البشر دون تفكير قد يكون ضارًا بالبشرية.[100][101]
تهديد الكرامة الإنسانية
جادل جوزيف فايزنباوم[102] في عام 1976 بأنه لا ينبغي استخدام تقنية الذكاء الاصطناعي لاستبدال الأشخاص في المناصب التي تتطلب الاحترام والرعاية، مثل: ممثل خدمة العملاء (تُستخدم تقنية الذكاء الاصطناعي بالفعل اليوم لأنظمة الرد الصوتي التفاعلي عبر الهاتف)، ومُربية المسنين (كما ذكرت "باميلا مكوردوك" في كتابها "الجيل الخامس")، والجندي، والقاضي، وضابط الشرطة، والمُعالج النفسي (كما اقترح كينيث كولبي في السبعينيات). وبرر وايزنباوم موقفه بأننا نحتاج إلى مشاعر تعاطف حقيقية من الأشخاص في هذه المناصب. وإذا حلت الآلات محلهم، فسنجد أنفسنا مُهمّشين ومُقلّلين من قيمتنا ومُحبطين، لأن النظام الذكي اصطناعيًا لن يكون قادرًا على محاكاة التعاطف. وإذا استُخدم الذكاء الاصطناعي بهذه الطريقة فأنه قد يمثل تهديدًا للكرامة الإنسانية، ويجادل وايزنباوم بأن حقيقة أننا نُفكّر في إمكانية وجود آلات في هذه المناصب تُشير إلى أننا قد شهدنا "ضمورًا في الروح البشرية ينبع من التفكير في أنفسنا كأجهزة حاسوب".[103]
عارضت الباحثة "باميلا مكوردوك" رأي وايزنباوم قائلةً نيابةً عن النساء والأقليات: "أفضّل أن أغتنم فرصي مع جهاز حاسوب نزيه"، مُشيرةً إلى أن هناك ظروفًا نُفضّل فيها أن يكون لدينا قضاة وضباط شرطة آليين ليس لديهم أي أجندة شخصية على الإطلاق.[103] ومع ذلك، يؤكد أندرياس كابلان و"هاينلين" على أن أنظمة الذكاء الاصطناعي ليست أذكى من البيانات المُستخدمة في تدريبها، لأنها في جوهرها ليست سوى آلات مُتطورة لمُلاءمة المنحنيات؛ ويمكن أن يكون استخدام الذكاء الاصطناعي لدعم حكم قضائي إشكاليًا للغاية إذا أظهرت الأحكام السابقة تحيزًا تجاه مجموعات مُعينة لأن هذه التحيزات تصبح رسمية وراسخة، مما يجعل من الصعب اكتشافها ومُكافحتها.[104]
وقد انزعج وايزنباوم أيضًا من أن باحثي الذكاء الاصطناعي (وبعض الفلاسفة) كانوا على استعداد لاعتبار العقل البشري ليس أكثر من برنامج حاسوب (موقف يُعرف الآن باسم "الحوسبية"). وبالنسبة لوايزنباوم، تُشير هذه النقاط إلى أن أبحاث الذكاء الاصطناعي تُقلّل من قيمة حياة الإنسان.[102] وعارض جون مكارثي النبرة الأخلاقية لنقد وايزنباوم. وكتب: "عندما تكون الأخلاق حادة وغامضة، فإنها تدعو إلى إساءة استخدام السلطة". وكتب بيل هيبرد "تتطلب كرامة الإنسان أن نسعى جاهدين لإزالة جهلنا بطبيعة الوجود، والذكاء الاصطناعي ضروري لهذا السعي".[105]
المسؤولية عن المركبات ذاتية القيادة
مع تزايد انتشار السيارات ذاتية القيادة، برزت تحديات جديدة تتطلب معالجة عاجلة.[106][107] أبرز هذه التحديات مسألة المسؤولية القانونية في حال وقوع حوادث، إذ تطرح تساؤلات حول الجهة المسؤولة عن الحادث: هل هي الشركة المصنعة، أم مبرمج النظام، أم السائق، أم المشاة المتضرر؟ [108][109]
تُبرز العديد من الحوادث تعقيد هذه المسألة. في إحدى الحوادث، صدمت سيارة ذاتية القيادة أحد المشاة رغم وجود سائق خلف المقود.[110] وفي حادثة أخرى، وقعت في ولاية أريزونا عام 2018، أودت حياة سيدة صدمتها سيارة أوبر ذاتية القيادة، حيث عجزت السيارة عن اكتشاف المشاة في منتصف الطريق.[111]
تثير هذه الحوادث تساؤلات جوهرية حول قدرة التقنية الحالية على التعامل مع جميع المتغيرات التي قد تواجهها السيارة على الطريق. فمعظم السيارات ذاتية القيادة الحالية تعتبر شبه ذاتية، مما يتطلب من السائق التدخل في حالات معينة.[112][113] لذا، تقع على عاتق الحكومات مسؤولية تنظيم استخدام هذه التقنيات وتوعية السائقين بأهمية الانتباه والجاهزية لتولي القيادة في أي وقت.[114][115]
يُشدد الخبراء على ضرورة تمكين المركبات ذاتية القيادة من اتخاذ قرارات أخلاقية صحيحة، خاصة وأنها تمتلك القدرة على إلحاق الأذى بالآخرين.[116] اقترح الخبراء نهجين رئيسيين لتحقيق ذلك: النهج التصاعدي، القائم على تعليم الآلة اتخاذ القرارات من خلال مراقبة السلوك البشري، والنهج التنازلي، القائم على برمجة مبادئ أخلاقية محددة في نظام الآلة. ومع ذلك، يواجه كلا النهجين تحديات كبيرة، إذ يعاني الأول من خطر تعلّم الآلة سلوكيات غير أخلاقية، بينما يعاني الثاني من صعوبة تحديد مبادئ أخلاقية شاملة ومقبولة عالميًا.
التسليح
شكك بعض الخبراء والأكاديميين في استخدام الروبوتات في القتال العسكري، خاصةً عند إعطاء هذه الروبوتات قدرًا من الوظائف الذاتية.[117] وقامت البحرية الأمريكية بتمويل تقرير يُشير إلى أنه مع تزايد تعقيد الروبوتات العسكرية، ينبغي إيلاء اهتمام أكبر لانعكاسات قدرتها على اتخاذ قرارات مستقلة.[118][119] وكلف رئيس جمعية النهوض بالذكاء الاصطناعي بإجراء دراسة للنظر في هذه القضية.[120] ويشيرون إلى برامج مثل "جهاز اكتساب اللغة" الذي يمكنه محاكاة التفاعل البشري.
وفي 31 أكتوبر 2019 نشر مجلس الابتكار الدفاعي التابع لوزارة الدفاع الأمريكية مسودة تقرير يُوصي بمبادئ الاستخدام الأخلاقي للذكاء الاصطناعي من قبل وزارة الدفاع تضمن للمُشغل البشري دائمًا إمكانية النظر في الصندوق الأسود وفهم عملية سلسلة القتل. ومع ذلك، يتمثل أحد الشواغل الرئيسية في كيفية تنفيذ التقرير.[121] وقامت البحرية الأمريكية بتمويل تقرير يُشير إلى أنه مع تزايد تعقيد الروبوتات العسكرية، ينبغي إيلاء اهتمام أكبر لانعكاسات قدرتها على اتخاذ قرارات مستقلة.[119][122] ويذكر بعض الباحثين أن الروبوتات المستقلة قد تكون أكثر إنسانية، لأنها تستطيع اتخاذ القرارات بشكل أكثر فعالية.[123]
وقد بحثت الأبحاث في كيفية صنع قوة ذاتية لديها القدرة على التعلم باستخدام المسؤوليات الأخلاقية المُوكلة إليها. "قد تُستخدم النتائج عند تصميم الروبوتات العسكرية المستقبلية، للتحكم في الميول غير المرغوب فيها لإسناد المسؤولية إلى الروبوتات." [124] ومن وجهة نظر نفعية، هناك احتمال أن تُطور الروبوتات القدرة على اتخاذ قراراتها المنطقية الخاصة بها بشأن من تقتل، ولهذا السبب ينبغي أن يكون هناك إطار أخلاقي مُحدد لا يمكن للذكاء الاصطناعي تجاوزه.[125]
وقد كانت هناك موجة غضب حديثة فيما يتعلق بهندسة أسلحة الذكاء الاصطناعي التي تضمنت أفكارًا عن سيطرة الروبوتات على البشرية. وتُشكل أسلحة الذكاء الاصطناعي نوعًا من الخطر يختلف عن خطر الأسلحة التي يتحكم فيها الإنسان. وقد بدأت العديد من الحكومات في تمويل برامج لتطوير أسلحة الذكاء الاصطناعي. وأعلنت البحرية الأمريكية مؤخرًا عن خطط لتطوير أسلحة طائرات بدون طيار ذاتية القيادة، بالتوازي مع إعلانات مماثلة من روسيا وكوريا الجنوبية.[126] ونظرًا لاحتمالية أن تُصبح أسلحة الذكاء الاصطناعي أكثر خطورة من الأسلحة التي يُشغلها الإنسان، فقد وقّع ستيفن هوكينج و"ماكس تيجمارك" على عريضة "مستقبل الحياة" لحظر أسلحة الذكاء الاصطناعي.[127] وتنص العريضة التي نشرها هوكينج وتيجمارك على أن أسلحة الذكاء الاصطناعي تُشكل خطرًا مُباشرًا، وأهمية اتخاذ إجراءات لتجنب الكوارث الكارثية في المستقبل القريب.[128]
"إن أي تقدم كبير لقوة عسكرية في تطوير أسلحة الذكاء الاصطناعي سيؤدي حتمًا إلى سباق تسلح عالمي، ويتضح جليًا أن نهاية هذا المسار التكنولوجي ستكون انتشار الأسلحة المستقلة، لتتحول إلى سلاح الكلاشينكوف في المستقبل"، كما جاء في عريضة وقع عليها كل من يان تالين، المؤسس المشارك لسكايب، وناعوم تشومسكي، أستاذ اللغويات في معهد ماساتشوستس للتكنولوجيا، كداعمين إضافيين ضد أسلحة الذكاء الاصطناعي.[129]
وقد حذر السير مارتن ريس عالم الفيزياء والفلك من سيناريوهات كارثية قد تنجم عن فقدان السيطرة على الروبوتات أو تطوير شبكات ذكاء اصطناعي واعية بذاتها. كما أطلق هيو برايس، زميل ريس في جامعة كامبريدج، تحذيرًا مشابهًا، مؤكدًا أن بقاء البشرية قد يكون مهددًا إذا ما تمكن الذكاء الاصطناعي من التحرر من قيود البيولوجيا. وقد أسس هذان الباحثان مركز دراسة المخاطر الوجودية في جامعة كامبريدج سعيًا لتجنب هذه المخاطر التي تهدد وجود الجنس البشري.[128]
وبخصوص إمكانية توظيف أنظمة تفوق ذكاء الإنسان في الأغراض العسكرية، يشير مشروع "أوبن فيلانثروبي" إلى أن هذه الاحتمالات "تبدو بالغة الأهمية شأنها شأن المخاطر المترتبة على فقدان السيطرة". إلا أن الأبحاث التي تتناول الأثر الاجتماعي البعيد المدى للذكاء الاصطناعي قد خصصت وقتًا محدودًا نسبيًا لدراسة هذا الجانب: "لم تكن هذه الفئة من السيناريوهات محط تركيز رئيسي للمؤسسات الأكثر اهتمامًا بهذا المجال، مثل معهد أبحاث الذكاء الآلي (MIRI) ومعهد مستقبل الإنسانية (FHI)، ويبدو أن التحليل والمناقشة المتعلقة بها أقل شمولًا".[130]
ويؤكد الباحث "قاو تشيتشي" أن الاستخدام العسكري للذكاء الاصطناعي من شأنه أن يؤجج التنافس العسكري بين الدول، وأن آثاره لن تقتصر على دولة بعينها، بل ستمتد لتشمل جوانب أخرى.[131](ص.91) ويشير "قاو" في هذا السياق إلى الاستخدام الأمريكي للذكاء الاصطناعي في المجال العسكري، زاعمًا أنه تم استغلاله كذريعة للتملص من المسؤولية عن اتخاذ القرارات.[131](ص.91)
وقد عُقدت قمة في عام 2023 في لاهاي بشأن مسألة استخدام الذكاء الاصطناعي بمسؤولية في المجال العسكري.[132]
اقترح فيرنور فينج من بين آخرين كثر، أنه قد تأتي لحظة يكون فيها بعض أجهزة الكمبيوتر، إن لم يكن جميعها، أكثر ذكاءً من البشر. يُشار عادةً إلى بداية هذا الحدث باسم "التفرد" وهو نقطة النقاش المركزية في فلسفة التفرد.[133] وبينما تتباين الآراء حول المصير النهائي للبشرية في أعقاب التفرد، أصبحت الجهود المبذولة للتخفيف من المخاطر الوجودية المُحتملة التي يُسببها الذكاء الاصطناعي موضوعًا مهمًا للنقاش في السنوات الأخيرة بين علماء الكمبيوتر والفلاسفة وعامة الناس.
وجادل العديد من الباحثين بأنه من خلال الانفجار الاستخباري، قد يُصبح الذكاء الاصطناعي المُحسّن ذاتيًا قويًا جدًا لدرجة أن البشر لن يكونوا قادرين على منعه من تحقيق أهدافه.[134] وفي ورقته البحثية "القضايا الأخلاقية في الذكاء الاصطناعي المُتقدم" وكتابه اللاحق "الذكاء الفائق: المسارات والمخاطر والاستراتيجيات"، يُجادل الفيلسوف نيك بوستروم بأن الذكاء الاصطناعي لديه القدرة على إحداث انقراض بشري. ويدّعي أن الذكاء الخارق الاصطناعي سيكون قادرًا على المبادرة المُستقلة ووضع خططه الخاصة، وبالتالي قد يكون من الأنسب اعتباره وكيلًا مستقلًا. وبما أن العقول الاصطناعية لا تحتاج إلى مُشاركة ميولنا التحفيزية البشرية، فسيكون الأمر مُترتبًا على مُصممي الذكاء الخارق لتحديد دوافعه الأصلية. ونظرًا لأن الذكاء الاصطناعي الخارق سيكون قادرًا على إحداث أي نتيجة ممكنة تقريبًا وإحباط أي محاولة لمنع تنفيذ أهدافه، فقد تنشأ العديد من العواقب غير المُتوقعة الخارجة عن السيطرة. ويمكنه القضاء على جميع العوامل الأخرى، أو إقناعها بتغيير سلوكها، أو منع محاولاتها للتدخل.[135][136]
ومع ذلك، زعم بوستروم أن الذكاء الخارق لديه أيضًا القدرة على حل العديد من المشكلات الصعبة مثل الأمراض والفقر والدمار البيئي، ويمكن أن يُساعد البشر على تحسين أنفسهم.[137]
وما لم تُوفر لنا الفلسفة الأخلاقية نظرية أخلاقية لا تشوبها شائبة، فإن وظيفة المنفعة الخاصة بالذكاء الاصطناعي يمكن أن تسمح بالعديد من السيناريوهات الضارة المُحتملة التي تتوافق مع إطار أخلاقي مُعين ولكن ليس "الفطرة السليمة". ووفقًا لـ"إليعازر يودكوفسكي" لا يوجد سبب يُذكر للاعتقاد بأن العقل المُصمم صناعيًا سيكون لديه مثل هذا التكيف.[138] وقد اقترح باحثو الذكاء الاصطناعي مثل ستيوارت راسل، [139] و"بيل هيبرد"، [105] و"رومان يامبولسكي"، [140] و"شانون فالور"، [141] و"ستيفن أومبريلو"، [142] و"لوتشيانو فلوريدي"، [143] استراتيجيات تصميم لتطوير آلات مفيدة.
المؤسسات المعنية بسياسة وأخلاقيات الذكاء الاصطناعي
هناك العديد من المنظمات المعنية بأخلاقيات الذكاء الاصطناعي وسياساته، العامة والحكومية، بالإضافة إلى الشركات والمجتمعية.
قامت أمازون وجوجل وفيسبوك وآي بي إم ومايكروسوفت بتأسيس منظمة غير ربحية، وهي "الشراكة في الذكاء الاصطناعي لصالح الناس والمجتمع"، لصياغة أفضل الممارسات في تقنيات الذكاء الاصطناعي، وتعزيز فهم الجمهور، والعمل كمنصة حول الذكاء الاصطناعي. وانضمت آبل في يناير 2017. وسيقدم الأعضاء من الشركات مساهمات مالية وبحثية للمجموعة، مع التفاعل مع المجتمع العلمي لجلب الأكاديميين إلى مجلس الإدارة.[144]
وقام معهد مهندسي الكهرباء والإلكترونيات (IEEE) بتجميع مبادرة عالمية حول أخلاقيات الأنظمة المستقلة والذكية، والتي تقوم بإنشاء وتنقيح الإرشادات بمساعدة مُدخلات الجمهور، وتقبل كأعضاء العديد من المهنيين من داخل وخارج مُنظمتها. وتهدف مبادرة أخلاقيات الأنظمة المستقلة التابعة للمعهد إلى مُعالجة المعضلات الأخلاقية المُتعلقة بصنع القرار وتأثيره على المجتمع، مع وضع إرشادات لتطوير واستخدام الأنظمة المستقلة. وبشكل خاص في مجالات مثل الذكاء الاصطناعي والروبوتات، تُكرس مؤسسة الروبوتات المسؤولة لتعزيز السلوك الأخلاقي، بالإضافة إلى تصميم واستخدام الروبوتات المسؤول، وضمان التزام الروبوتات بالمبادئ الأخلاقية وتوافقها مع القيم الإنسانية.[145]
تقليديًا استخدمت المجتمعات الحكومة لضمان مراعاة الأخلاق من خلال التشريعات والرقابة. وهناك الآن العديد من الجهود التي تبذلها الحكومات الوطنية، بالإضافة إلى المنظمات الحكومية وغير الحكومية عبر الوطنية، لضمان تطبيق الذكاء الاصطناعي بشكل أخلاقي.[146]
المبادرات الحكومية الدولية
أولت المفوضية الأوروبية اهتمامًا بالغًا بمسألة الذكاء الاصطناعي، فأنشأت ما يُعرف بـ "مجموعة خبراء رفيعة المستوى" المعنية بهذا المجال. وقد أسفرت أعمال هذه المجموعة عن إصدار "إرشادات أخلاقية للذكاء الاصطناعي الجدير بالثقة" في 8 أبريل 2019.[147] علاوة على ذلك، أنشأت المفوضية وحدة متخصصة في مجال الروبوتات والذكاء الاصطناعي، والتي بدورها أصدرت ورقة بحثية حول التميز والموثوقية في ابتكار الذكاء الاصطناعي في 19 فبراير 2020.[148] ولم تتوقف جهود المفوضية عند هذا الحد، بل اقترحت أيضًا قانونًا شاملًا للذكاء الاصطناعي.[82] على صعيد آخر أنشأت منظمة التعاون الاقتصادي والتنمية "مرصد سياسات الذكاء الاصطناعي" بهدف متابعة التطورات في هذا المجال.[149]
وفي خطوة بارزة على الصعيد العالمي، اعتمدت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) في عام 2021م "التوصية بشأن أخلاقيات الذكاء الاصطناعي"، والتي تُعد أول معيار عالمي من نوعه في هذا الشأن.[150] وقد تميز هذا الإصدار بأهميته كأول وثيقة دولية شاملة تتناول قضايا أخلاقيات الذكاء الاصطناعي.[151]
المبادرات الحكومية
وضعت إدارة أوباما "خارطة طريق لسياسات الذكاء الاصطناعي".[152] وأصدرت إدارة أوباما ورقتين بيضاويتين بارزتين حول مستقبل وتأثير الذكاء الاصطناعي. وفي عام 2019 أصدر البيت الأبيض من خلال مذكرة تنفيذية تُعرف باسم "مبادرة الذكاء الاصطناعي الأمريكية"، تعليمات للمعهد الوطني للمعايير والتكنولوجيا (NIST) لبدء العمل على المشاركة الفيدرالية في معايير الذكاء الاصطناعي (فبراير 2019).[153] في يناير 2020 أصدرت إدارة ترامب مسودة أمر تنفيذي أصدره مكتب الإدارة والميزانية (OMB) بشأن "إرشادات لتنظيم تطبيقات الذكاء الاصطناعي". ويؤكد الأمر على الحاجة إلى الاستثمار في تطبيقات الذكاء الاصطناعي، وتعزيز ثقة الجمهور في الذكاء الاصطناعي، وتقليل حواجز استخدام الذكاء الاصطناعي، والحفاظ على القدرة التنافسية لتكنولوجيا الذكاء الاصطناعي الأمريكية في السوق العالمية. وهناك إشارة إلى الحاجة إلى مخاوف الخصوصية، ولكن لا يوجد مزيد من التفاصيل حول الإنفاذ. ويبدو أن تطورات تكنولوجيا الذكاء الاصطناعي الأمريكية هي محور التركيز والأولوية. بالإضافة إلى ذلك، يتم تشجيع الكيانات الفيدرالية على استخدام الأمر للتحايل على أي قوانين ولوائح حكومية قد تعتبرها السوق مُرهقة للغاية.[154]
شارك اتحاد الحوسبة المجتمعي بمسودة تقرير من أكثر من 100 صفحة خارطة طريق مجتمعية لمدة 20 عامًا لأبحاث الذكاء الاصطناعي في الولايات المتحدة.[155][156][157]
تضم جامعة أكسفورد ثلاثة معاهد بحثية تخصصت في دراسة أخلاقيات الذكاء الاصطناعي. أولها: معهد مستقبل الإنسانية الذي يولي اهتمامًا بالغًا بسلامة الذكاء الاصطناعي وحوكمته، [159] وثانيها: معهد أخلاقيات الذكاء الاصطناعي، الذي يديره جون تاسيولاس، ويهدف، من بين أهدافه العديدة، إلى ترسيخ مكانة أخلاقيات الذكاء الاصطناعي كحقل مستقل ودائم التطور مقارنة بالفروع الأخرى لأخلاقيات التطبيق.[160] أما ثالثها فهو: معهد أكسفورد للإنترنت، الذي يشرف عليه لوتشيانو فلوريدي، ويختص بدراسة أخلاقيات تقنيات الذكاء الاصطناعي وتكنولوجيا المعلومات والاتصالات على المدى القريب.[161]
أسهمت جوانا بريسون في تأسيس مركز الحوكمة الرقمية بجامعة هيرتي في برلين، حيث يركز البحث على قضايا الأخلاقيات المرتبطة بالتكنولوجيا.[162] ويعد معهد "الذكاء الاصطناعي الآن" بجامعة نيويورك مؤسسة بحثية تبحث في الآثار الاجتماعية للذكاء الاصطناعي. وتشمل اهتمامات أبحاثه المتعددة التخصصات موضوعات التحيز والشمولية، وعالم العمل والأتمتة، والحقوق والحريات الأساسية، والسلامة والبنية التحتية المدنية.[163] ويهتم معهد الأخلاقيات والتقنيات الناشئة (IEET) بدراسة آثار الذكاء الاصطناعي على البطالة والسياسات المتعلقة به.[164][165] ويقوم معهد أخلاقيات الذكاء الاصطناعي (IEAI) بجامعة ميونخ التقنية تحت قيادة كريستوف لوتج، بإجراء أبحاث في مجالات متنوعة كالنقل والتوظيف والرعاية الصحية والاستدامة.[166] وبدأت باربرا جيه جروسز، أستاذة العلوم الطبيعية بجامعة هارفارد، في دمج الأخلاقيات الحاسوبية في مناهج علوم الكمبيوتر بجامعة هارفارد، وذلك بهدف تكوين جيل جديد من علماء الحاسوب يتمتعون برؤية شاملة تأخذ في الاعتبار الأثر الاجتماعي لأعمالهم.[167]
تاريخيًا، يعود البحث في الآثار الأخلاقية والمعنوية للآلات المُفكرة إلى عصر التنوير على الأقل: فقد طرح غوتفريد لايبنتس بالفعل سؤالًا حول ما إذا كان بإمكاننا أن ننسب الذكاء إلى آلية تتصرف كما لو كانت كائنًا واعيًا، [172] وكذلك فعل رينيه ديكارت الذي وصف ما يمكن اعتباره نسخة مُبكرة من اختبار تورنغ.[173]
تصور العصر الرومانسي عدة مرات مخلوقات اصطناعية تفلت من سيطرة خالقها بعواقب وخيمة، وأشهرها في رواية "فرانكشتاين" لماري شيلي. ومع ذلك، فإن الانشغال الواسع بالتصنيع والميكنة في القرن التاسع عشر وأوائل القرن العشرين، جلب الآثار الأخلاقية للتطورات التقنية المنفلتة إلى مُقدمة الأعمال الأدبية: روبوتات روسوم العالمية مسرحية كاريل تشابيك عن الروبوتات الواعية المُزودة بمشاعر تُستخدم كعمالة رقيق، لا تُنسب فقط إلى اختراع مُصطلح "روبوت" (مُشتق من الكلمة التشيكية للعمل القسري، robota) ولكنها كانت أيضًا نجاحًا دوليًا بعد عرضها لأول مرة في عام 1921. وتُشكك مسرحية جورج برنارد شو "العودة إلى ميثوسالح"، التي نُشرت في عام 1921، في مرحلة ما في صحة الآلات المُفكرة التي تتصرف مثل البشر؛ ويُظهر فيلم "متروبوليس" لفريتز لانغ عام 1927 إنسانًا آليًا يقود انتفاضة الجماهير المُستغلة ضد النظام القمعي لمجتمع تكنوقراطي. وفي الخمسينيات من القرن الماضي، نظر إسحق عظيموف في مسألة كيفية التحكم في الآلات في أنا، روبوت. وبإصرار من مُحرره جون دبليو كامبل جونيور، اقترح القوانين الثلاثة للروبوتات للتحكم في الأنظمة الذكية اصطناعيًا. ثم تم قضاء الكثير من عمله في اختبار حدود قوانينه الثلاثة لمعرفة أين ستنهار، أو أين ستُخلق سلوكًا مُتناقضًا أو غير مُتوقع.[174] ويُشير عمله إلى أنه لا توجد مجموعة من القوانين الثابتة يمكنها توقع جميع الظروف المُحتملة بشكل كافٍ.[175] وفي الآونة الأخيرة، طعن الأكاديميون والعديد من الحكومات في فكرة أن الذكاء الاصطناعي نفسه يمكن مساءلته.[176] وقامت لجنة شكلتها المملكة المتحدة في عام 2010 بمراجعة قوانين أسيموف لتوضيح أن الذكاء الاصطناعي هو مسؤولية إما مُصنعيه أو مالكه/مُشغّله.[177]
واقترح "إليعازر يودكوفسكي"، من معهد أبحاث الذكاء الآلي، في عام 2004 الحاجة إلى دراسة كيفية بناء "ذكاء اصطناعي ودود"، مما يعني أنه يجب أيضًا بذل جهود لجعل الذكاء الاصطناعي ودودًا وإنسانيًا بطبيعته.[178]
وفي عام 2009، حضر الأكاديميون والخبراء التقنيون مؤتمرًا نظمته جمعية النهوض بالذكاء الاصطناعي لمناقشة التأثير المُحتمل للروبوتات وأجهزة الكمبيوتر، وتأثير الاحتمال الافتراضي بأنه يمكن أن تُصبح مكتفية ذاتيًا وتتخذ قراراتها الخاصة. وناقشوا إمكانية ومدى قدرة أجهزة الكمبيوتر والروبوتات على اكتساب أي مستوى من الاستقلالية، وإلى أي مدى يمكنها استخدام هذه القدرات لتُشكل أي تهديد أو خطر.[179] ولاحظوا أن بعض الآلات قد اكتسبت أشكالًا مُختلفة من شبه الاستقلالية، بما في ذلك القدرة على العثور على مصادر طاقة بمفردها والقدرة على اختيار الأهداف للهجوم بالأسلحة بشكل مُستقل. ولاحظوا أيضًا أن بعض فيروسات الكمبيوتر يمكنها التهرب من الإزالة وقد حققت "ذكاء الصرصور". ولاحظوا أن الوعي بالذات كما هو موضح في الخيال العلمي من المُحتمل أنه غير مُرجح، ولكن هناك مخاطر ومزالق مُحتملة أخرى.[133]
وفي عام 2009 أيضًا، خلال تجربة في مُختبر الأنظمة الذكية في مدرسة لوزان الاتحادية للفنون التطبيقية في سويسرا، تعلمت الروبوتات التي تمت برمجتها للتعاون مع بعضها البعض (في البحث عن مورد مفيد وتجنب مورد سام) في النهاية الكذب على بعضها البعض في محاولة لاكتناز المورد المفيد.[180]
كان دور الخيال فيما يتعلق بأخلاقيات الذكاء الاصطناعي مُعقدًا.[181] يمكن للمرء أن يُميز ثلاثة مُستويات أثّر فيها الخيال على تطوير الذكاء الاصطناعي والروبوتات: تاريخيًا، كان الخيال يُنذر بالاستعارات الشائعة التي لم تُؤثر فقط على أهداف ورؤى الذكاء الاصطناعي، ولكنها حددت أيضًا الأسئلة الأخلاقية والمخاوف الشائعة المُرتبطة به. خلال النصف الثاني من القرن العشرين والعقود الأولى من القرن الحادي والعشرين، غالبًا ما رددت الثقافة الشعبية، وخاصة الأفلام والمسلسلات التلفزيونية وألعاب الفيديو، الانشغالات والتوقعات المُتعلقة بالأسئلة الأخلاقية المتعلقة بالذكاء الاصطناعي والروبوتات. ومؤخرًا، طغت هذه الموضوعات بشكل مُتزايد على الأدب خارج نطاق الخيال العلمي. وكما تُشير "كارمي تورّاس" أستاذة البحث في معهد الروبوتات والحوسبة الصناعية في الجامعة التقنية في كاتالونيا: "يُستخدم الخيال العلمي بشكل مُتزايد أيضًا لتدريس القضايا الأخلاقية المُتعلقة بالتكنولوجيا في الدرجات التكنولوجية".[182]
التأثير على التطور التكنولوجي
بينما غذى توقع مُستقبل تهيمن عليه التكنولوجيا التي لا تُقهَر خيال الكُتاب وصانعي الأفلام لفترة طويلة، إلا أن هناك سؤالًا واحدًا لم يتم تحليله بشكل مُتكرر، وهو إلى أي مدى لعب الخيال دورًا في توفير الإلهام للتطور التكنولوجي. فقد تم توثيق، على سبيل المثال، أن الشاب "آلان تورينج" شاهد وامتدح مسرحية شو المذكورة أعلاه "العودة إلى ميثوسالح" في عام 1933 [183] (قبل 3 سنوات فقط من نشر ورقته البحثية الأولى، [184] التي أرست الأساس لجهاز الكمبيوتر الرقمي)، ومن المُرجح أنه كان على الأقل على دراية بمسرحيات مثل روبوتات روسوم العالمية، التي حققت نجاحًا دوليًا وتُرجمت إلى العديد من اللغات.
قد يسأل المرء أيضًا عن الدور الذي لعبه الخيال العلمي في ترسيخ مبادئ الآثار الأخلاقية لتطوير الذكاء الاصطناعي: فقد صاغ إسحاق أسيموف قوانينه الثلاثة للروبوتات في قصة "الهروب" القصيرة عام 1942، وهي جزء من مجموعة القصص القصيرة "أنا، روبوت"؛ كُتبت قصة آرثر تشارلز كلارك القصيرة "الحارس"، التي يستند إليها فيلم ستانلي كوبريك "2001: ملحمة الفضاء"، في عام 1948 ونُشرت في عام 1952. ومن الأمثلة الأخرى قصص وفيلم "هل تحلم الروبوتات بخرفان آلية؟" لفيليب ك. ديك، الذي نُشر في عام 1968، والذي يُقدم نسخته الخاصة من اختبار تورينج، وهو اختبار فويت-كامبف، لقياس الاستجابات العاطفية للروبوتات التي لا يُمكن تمييزها عن البشر. وأصبحت الرواية فيما بعد أساسًا لفيلم "بليد رنر" المُؤثر لريدلي سكوت عام 1982.
وقد تصارع الخيال العلمي مع الآثار الأخلاقية لتطورات الذكاء الاصطناعي لعقود، وبالتالي قدم مخططًا للقضايا الأخلاقية التي قد تظهر بمجرد تحقيق شيء مُشابه للذكاء الاصطناعي العام: يُظهر فيلم سبايك جونز "هي" لعام 2013 ما يمكن أن يحدث إذا وقع المُستخدم في حب الصوت المُغري لنظام تشغيل هاتفه الذكي؛ من ناحية أخرى، يطرح فيلم "إكس ماكينا" سؤالًا أكثر صعوبة: إذا واجهنا آلة يُمكن التعرف عليها بوضوح، مصنوعة فقط من وجه وصوت عاطفي وحسي، فهل سنظل قادرين على إقامة اتصال عاطفي، هل ما زلنا نُغري بها؟ (يُردد الفيلم موضوعًا كان موجودًا بالفعل قبل قرنين من الزمان، في القصة القصيرة "الرجل الرملي" لإرنست هوفمان.)
موضوع التعايش مع الكائنات الواعية الاصطناعية هو أيضًا موضوع روايتين حديثتين: تتضمن رواية "آلات مثلي" لإيان ماك إيوان، التي نُشرت في عام 2019، من بين أشياء أخرى كثيرة، مُثلث حب يتضمن شخصًا اصطناعيًا بالإضافة إلى زوجين بشريين. ورواية "كلارا والشمس" الفائزة بجائزة نوبل لكازو إيشيجورو، التي نُشرت في عام 2021، هي رواية بضمير المتكلم من وجهة نظر كلارا، وهي "صديقة اصطناعية"، تُحاول، بطريقتها الخاصة، مُساعدة الفتاة التي تعيش معها، والتي، بعد أن "رُفعت" (أي خضعت لتحسينات وراثية)، تُعاني من مرض غريب.
المسلسلات التلفزيونية
بينما عٌرضت الأسئلة الأخلاقية المُرتبطة بالذكاء الاصطناعي في أدب الخيال العلمي والأفلام الروائية لعقود من الزمن، فإن ظهور المسلسلات التلفزيونية كنوع يسمح بخطوط قصصية وتطوير شخصيات أطول وأكثر تعقيدًا قد أدى إلى بعض المساهمات الهامة التي تتناول الآثار الأخلاقية للتكنولوجيا. حيث تناول المسلسل السويدي "بشر حقيقيون" (2012-2013) العواقب الأخلاقية والاجتماعية المُعقدة المُرتبطة بدمج الكائنات الواعية الاصطناعية في المجتمع. وكان المسلسل البريطاني المُختار للخيال العلمي المُظلم "المرآة السوداء" (2013-2019) بارزًا بشكل خاص لتجربته مع التطورات الخيالية المُظلمة المُرتبطة بمجموعة واسعة من التطورات التكنولوجية الحديثة. يتناول كل من المسلسل الفرنسي "التناضح" (2020) والمسلسل البريطاني "الواحد" مسألة ما يمكن أن يحدث إذا حاولت التكنولوجيا العثور على الشريك المثالي للشخص. تخيلت العديد من حلقات مسلسل "الحب والموت والروبوتات" على نتفليكس مشاهد للروبوتات والبشر يعيشون معًا. وأظهرت الحلقة الأولى من الموسم الثاني مدى سوء عواقب خروج الروبوتات عن نطاق السيطرة إذا اعتمد البشر عليها كثيرًا في حياتهم.[185]
الرؤى المستقبلية في الخيال والألعاب
يُشير فيلم الطابق الثالث عشر إلى مستقبل يتم فيه ابتكار عوالم مُحاكاة يسكنها كائنات واعية يتم التحكم فيها بوحدات ألعاب الكمبيوتر بهدف الترفيه. أما فيلم "الماتريكس" فيصور مستقبلًا تُهيمن فيه الآلات الواعية على كوكب الأرض، وتتعامل مع البشرية معاملة تمييزية بالغة. وفي القصة القصيرة "بلاند دايف"، تحول البشر أنفسهم إلى برامج قابلة للتكرار والتحسين، ويتجلى التمييز الأساسي بين هذه البرامج في كونها واعية أو غير واعية. ويمكن العثور على فكرة مماثلة في الصورة ثلاثية الأبعاد الطبية الطارئة لسفينة الفضاء فوييجر، وهي نسخة واعية على ما يبدو من جزء محدود من وعي مُنشئها، الدكتور زيمرمان، الذي أنشأ هذا النظام بدافع إنساني لتقديم المُساعدة الطبية في حالات الطوارئ. ويتناول فيلما الرجل ذو المائتي عام وإي آي إمكانية وجود روبوتات واعية قادرة على الحب. وقد استكشف فيلم أنا روبوت بعض جوانب قوانين أسيموف الثلاثة. تسعى جميع هذه السيناريوهات إلى التنبؤ بالعواقب الأخلاقية المُحتملة لخلق أجهزة كمبيوتر واعية.[186]
تُعدّ أخلاقيات الذكاء الاصطناعي من المحاور الجوهرية التي تستأثر باهتمام سلسلة ألعاب ماس إفيكت.[187] تستعرض اللعبة سيناريو افتراضي لحضارة ابتكرت، عن طريق الخطأ، ذكاءً اصطناعيًا واعيًا نتيجة تطوير شبكة عصبية على نطاق واسع. وقد أثار هذا الحدث انقسامًا أخلاقيًا حادًا بين مؤيدي منح هذا الذكاء حقوقًا مساوية لحقوق الكائنات الحية، وبين معارضي هذه الفكرة الذين رأوا فيه مجرد آلة يمكن التخلص منها. وبالإضافة إلى هذا الصراع الأساسي، فإن اللعبة تتناول باستمرار تعقيد العلاقة بين الخالق والمخلوق الاصطناعي.
ومن أبرز الألعاب التي تناقش هذه القضية في الآونة الأخيرة لعبة ديترويت: نحو الإنسانية.[188] تعتمد هذه اللعبة على رواية قصص تفاعلية لتمنح اللاعب تجربة غامرة. ويتحكم اللاعب في مصير ثلاثة أندرويدات أصبحت واعية، ويتخذ قرارات حاسمة تؤثر على مصيرهم ومصير البشرية. وتُعد هذه اللعبة فريدة من نوعها لأنها تتيح للاعب أن يعيش تجربة الاندرويد، مما يساعده على فهم حقوقه ومصالحه بشكل أفضل.
بمرور الوقت، اتجهت المناقشات إلى التركيز بشكل أقل على الإمكانية وأكثر على الرغبة، [189] كما تم التأكيد عليه في مناقشات "الكونية" و"الأرضية" التي بدأها "هوغو دي غاريس" وكيفن وارويك. الكوني، وفقًا لهوجو دي غاريس، يسعى بالفعل إلى بناء خلفاء أكثر ذكاءً للجنس البشري.
جادل الخبراء في جامعة كامبريدج بأن الذكاء الاصطناعي يُصور في الخيال والواقع على أنه أبيض عرقيًا، بطرق تُشوّه التصورات عن مخاطره وفوائده.[190]
^ ابMüller، Vincent C. (2020)، "Ethics of Artificial Intelligence and Robotics"، في Zalta، Edward N. (المحرر)، The Stanford Encyclopedia of Philosophy (ط. Winter 2020)، Metaphysics Research Lab, Stanford University، مؤرشف من الأصل في 2021-04-12، اطلع عليه بتاريخ 2021-03-18
^Ruggieri، Salvatore؛ Alvarez، Jose M.؛ Pugnana، Andrea؛ State، Laura؛ Turini، Franco (26 يونيو 2023). "Can We Trust Fair-AI?". Proceedings of the AAAI Conference on Artificial Intelligence. Association for the Advancement of Artificial Intelligence (AAAI). ج. 37 ع. 13: 15421–15430. DOI:10.1609/aaai.v37i13.26798. hdl:11384/136444. ISSN:2374-3468. S2CID:259678387. مؤرشف من الأصل في 2024-11-27. اطلع عليه بتاريخ 2024-10-22.
^Castelnovo، Alessandro؛ Inverardi، Nicole؛ Nanino، Gabriele؛ Penco، Ilaria Giuseppina؛ Regoli، Daniele (2023). "Fair Enough? A map of the current limitations of the requirements to have "fair" algorithms". arXiv:2311.12435 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
^Ntoutsi, Eirini; Fafalios, Pavlos; Gadiraju, Ujwal; Iosifidis, Vasileios; Nejdl, Wolfgang; Vidal, Maria-Esther; Ruggieri, Salvatore; Turini, Franco; Papadopoulos, Symeon; Krasanakis, Emmanouil; Kompatsiaris, Ioannis; Kinder-Kurlanda, Katharina; Wagner, Claudia; Karimi, Fariba; Fernandez, Miriam (May 2020). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery (بالإنجليزية). 10 (3). DOI:10.1002/widm.1356. ISSN:1942-4787. Archived from the original on 2024-09-25. Retrieved 2024-10-22.
^ ابLuo, Queenie; Puett, Michael J.; Smith, Michael D. (28 Mar 2023). "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube" (بالإنجليزية). arXiv:2303.16281v2 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
^Cheng, Myra; Durmus, Esin; Jurafsky, Dan (29 May 2023). "Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models" (بالإنجليزية). arXiv:2305.18189v1 [cs.CL]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (help)
^Anonymous (14 يونيو 2018). "The European AI Alliance". Digital Single Market – European Commission. مؤرشف من الأصل في 2019-08-01. اطلع عليه بتاريخ 2019-07-26.
^Shulman، Carl؛ Bostrom، Nick (أغسطس 2021). "Sharing the World with Digital Minds"(PDF). Rethinking Moral Status. مؤرشف من الأصل(pdf) في 2024-10-27. اطلع عليه بتاريخ 2024-10-22.
^"Ethics guidelines for trustworthy AI". Shaping Europe’s digital future – European Commission (بالإنجليزية). European Commission. 08 Apr 2019. Archived from the original on 2020-02-20. Retrieved 2020-02-20.
^Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (03 مايو 2018). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
^Bringsjord، Selmer؛ Govindarajulu، Naveen Sundar (2020)، "Artificial Intelligence"، في Zalta، Edward N.؛ Nodelman، Uri (المحررون)، The Stanford Encyclopedia of Philosophy (ط. Summer 2020)، Metaphysics Research Lab, Stanford University، مؤرشف من الأصل في 2022-03-08، اطلع عليه بتاريخ 2023-12-08
^Hodges, A. (2014), Alan Turing: The Enigma, Vintage, London, p. 334
^A. M. Turing (1936). "On computable numbers, with an application to the Entscheidungsproblem." in Proceedings of the London Mathematical Society, 2 s. vol. 42 (1936–1937), pp. 230–265.