تفرد تقني

التفرد التقني أو بكل بساطة التفرد[1] هو فرضية أن اختراع أجهزة ذكاء اصطناعي خارقة ستؤدي إلى نمو تقني سريع، مؤديةً إلى تغيرات غير معقولة في الحضارة البشرية.[2] طبقًا لهذه الفرضية، ستدخل أدوات ذكية (مثل جهاز كومبيوتر يعمل على أساس برنامج مبني على فكرة الذكاء الاصطناعي) في تفاعلات سريعة من الدوائر المطورة لأنفسها؛ مع كل جيل أحدث وأذكى يعمل بسرعة أكبر وأكبر، مؤديةً إلى انفجار معرفي وإلى ذكاء صناعي خارق، يتجاوز كل الذكاء البشري. تقول فكرة غود إن الانفجار المعرفي سيؤدي في النهاية إلى تفرد. وقال أستاذ الفلسفة في علوم الحاسوب بجامعة سان دييغو وكاتب الخيال العلمي فيرنور فينج في مقالته عام 1993 «التفرد التقني القادم»[3] أن هذا من شأنه أن يشير إلى نهاية حقبة الإنسان،[2][4] حيث سيستمر الذكاء الفائق الجديد في الارتقاء بنفسه والتقدم تقانيًا بمعدل غامض.[5]

في عام 2012 و2013 تمت أربعة استطلاعات للرأي، مبينةً أن نسبة تطوير ذكاء اصطناعي عام هي 50 بالمئة بحلول 2040 إلى 2050.[5]

في السنوات السابقة، أعربت شخصيات عامة مثل ستيفن هوكينج وايلون مسك عن قلقه بأن الذكاء الاصطناعي العام من الممكن أن يؤدي إلى انقراض الإنسان. إن عواقب التفرد ومصلحته أو ضرره للجنس البشري قد نوقشت بشدة.[6][7]

خلفية

على الرغم من أن التقدم التقني يتسارع، إلا أنه كان مقيدًا بالذكاء الأساسي للدماغ البشري، والذي، طبقًا لبول ر. ايرليك، لم يتغير كثيرًا على مر آلاف السنين.[8] غير أن ازدياد قوة أجهزة الكومبيوتر والتقانة الأخرى من الممكن أن يؤدي إلى بناء آلات أكثر ذكاءًا من البشر.[9] إذا ما تمكنا من اختراع ذكاء خارق - أما من خلال إسهاب الذكاء البشري أو من خلال الذكاء الاصطناعي - سنتمكن من الحصول على مهارات اختراعيه وقدرات على حل مشاكل أعظم من هذه التي يمتلكها البشر الآن. يسمى هذا النوع من الذكاء الاصطناعي باسم (ذرية الذكاء الاصطناعي-Seed AI)[10][11] لأنه إذا صُنِّعَت آلة ذكاء اصطناعي باستخدام قدرات هندسية تتطابق مع أو تتجاوز قدرات صانعيها البشريين، فستكون لها القدرة على تحسين برامجها وعدتها بصورة مستقلة أو حتى تصميم آلة لها إمكانات أكبر. هذه الآلة ذات الإمكانات الأكبر من الممكن أن تقوم بتصميم آلة ذات قدرة أكبر بكثير. من الممكن ان تتسارع هذه التكرارات للتحسين الذاتي المتكرر، مما يسمح بتغيير نوعي كبير قبل أي حدود عليا تفرضها قوانين الفيزياء أو الحسابات النظرية الموضوعة فيها. ويُعتَقَد بأنه على مدى العديد من التكرارات، سيتجاوز هذا الذكاء القدرات البشرية المعرفية.

يقول عالم الكومبيوتر فيرنور فينج في مقالة عنوانها «التفرد التكولوجي القادم» إن هذا سينبئ بنهاية الحقبة البشرية، حيث ان الذكاء الاصطناعي الخارق سيستمر في تطوير نفسه بمعدل غامض.

الانفجار المعرفي

الانفجار المعرفي هو نتيجة محتملة من بناء البشر لذكاء اصطناعي عام AGI. سيتمكن الذكاء الاصطناعي هذا من تطوير نفسه بصورة مستمرة مؤديًا إلى ظهور سريع لذكاء اصطناعي خارق ASI، وستكون حدوده غير معروفة، في وقت التفرد التقني.

توقع ا. ج. غود أن الذكاء الاصطناعي الشامل سيؤدي إلى انفجار معرفي. توقع آثار الآلات خارقة الذكاء إذا ما اُخْتُرِعَت: غود 1965

«يمكن تعريف الآلة فائقة الذكاء على أنها الآلة التي تستطيع التفوق على كل الأنشطة الفكرية لأي رجل مهما كان ذكيًا. وبما أن تصميم هذه الآلة هو واحد من هذه الأنشطة الفكرية، فإن الآلة فائقة الذكاء ستتمكن من تصميم آلات أفضل، في ذلك الوقت سيكون هنالك بلا شك «إنفجار معرفي»، وسيتم ترك ذكاء البشر في الخلف. لذا فإن إختراع آلة فائقة الذكاء هو الإختراع الأخير الذي سيحتاج إليه الإنسان، شريطة أن يكون الجهاز قادرًا على ان يخبرنا كيف نحافظ عليه تحت السيطرة.»

سيناريو غود هو كالتالي: عندما تزداد قوة أجهزة الكومبيوتر، سيصبح من الممكن للبشر أن يبنوا آلة أكثر ذكاءًا من البشر؛ سيمتلك الذكاء الخارق هذا قدرة أكبر على حل المشاكل وله مهارات ابتكارية تفوق هذه الموجودة لدى البشر. فيما بعد، ستقوم هذه الآلة خارقة الذكاء بتصميم آلة أكثر ذكاءاً؛ هذه الآلة (ذات القدرة الأكبر) ستقوم بتصميم آلة ذات قدرة أعظم، وهكذا. تتسارع هذه التكرارات من التحسين الذاتي المستمر، سامحةً بتغيير نوعي كبير قبل أي حدود عليا تفرضها قوانين الفيزياء أو الحسابات النظرية المدخلة فيها.[12]

مظاهر أخرى

ظهور الذكاء الخارق

الذكاء الخارق، الذكاء المفرط، أو الذكاء الخارق للبشر هو عنصر افتراضي يملك ذكاء يفوق بكثير العقول البشرية الأكثر ذكاءًا. من الممكن أن يشير مصطلح «الذكاء الخارق» إلى شكل ودرجة الذكاء التي تمتلكها هذه الآلة. يعرف جون فون نيومان، فيرنور فينج وراي كوزويل هذا المفهوم من حيث التكوين التقني للذكاء الخارق. وهم يقولون إنه من الصعب أو المستحيل للبشر في الوقت الحالي توقع ما ستغدوا عليه حياة البشر في عالم ما بعد التفرد.[5][13]

يعارض المتنبئون التقنيون والباحثون فكرة أنه سيتم التفوق على الذكاء البشري. يقول البعض إن التطور في الذكاء الاصطناعي سيؤدي إلى نظام منطقي عام يفتقر إلى القيود البشرية. يعتقد آخرون أن البشر سيتطورون أو يعدلون أنفسهم بيولوجيًا بصورة مباشرة لتحقيق ذكاء أكبر بشكل جذري. وهنالك سيناريوات مستقبلية عديدة تجمع عناصر من كلا الاحتمالين، قائلةً إن البشر من الممكن ان يربطوا أنفسهم باجهزة الكومبيوتر، أو ان يقوموا برفع أدمغتهم إلى أجهزة الكومبيوتر، بطريقة تمكن من توسيع الذكاء بشكل كبير.

التفرد غير المرتبط بالذكاء الاصطناعي

يستخدم بعض الكتاب مصطلح «التفرد» بصورة أوسع ليشيروا إلى أي تغيير جذري في المجتمع حدث بسبب تقانة جديدة مثل تقانة النانو الجزيئية،[14][15][16] على الرغم من أن فينج وكتاب آخرون يقولون إنه من دون ذكاء خارق، لا يمكن اعتبار هذه التغيرات تفردًا حقيقيًا.[5]

المعقولية

يناقش العديد من التقنيين والأكاديميين معقولية التفرد التقني، ومن ضمنهم بول الين، جيف هوكينز، جون هولاند، جارون لانير، وغورودون مور، والذي غالبًا ما يُسْتَشْهَدْ بقانونه في دعم هذه الفكرة.[17][18][19]

تندرج معظم الطرق المقترحة لتكوين أدمغة خارقة أو فوق بشرية في إحدى الفئتين: تضخيم الذكاء للأدمغة البشرية والذكاء الاصطناعي. إن الطرق المستخدمة في زيادة الذكاء عديدة، وتشمل الهندسة الحيوية، الهندسة الوراثية، الأدوية المنشطة للدماغ، مساعدو الذكاء الاصطناعي، الربط المباشر بين الدماغ والكومبيوتر وتحميل الدماغ. إن وجود العديد من الطرق للانفجار المعرفي يجعل من التفرد أكثر احتمالًا؛ لذا فإن عدم حدوث التفرد يتطلب عدم نجاح أي من هذه الطرق.[20]

يشكك هانسون (1998) في زيادة ذكاء البشر، قائلًا إنه عندما يتم استنزاف كل «الفواكه المنخفضة المتدلية» للطرق السهلة لزيادة الذكاء البشري، سيصعب العثور على طرق جديدة. على الرغم من الطرق العديدة المقترحة لزيادة الذكاء البشري، إلا أن الذكاء الاصطناعي غير البشري هو الخيار الأكثر رواجًا عند المنظمات التي تحاول التقدم في التفرد.

حصول أو عدم حصول انفجار معرفي هو أمر يعتمد على ثلاثة عوامل.[21] العامل الأول، عامل التسارع، وهو أن التطورات المعرفية الجديدة أصبحت ممكنة من خلال كل تطور سابق. على النقيض من ذلك، عندما يزداد مقدار الذكاء، ستصبح التطورات اللاحقة أكثر تعقيدًا، ومن الممكن أن تتجاوز فوائد الذكاء المتزايد. يجب على كل تطور جديد الإتيان بتطور جديد، من أجل استمرار التفرد. وفي النهاية، ستمنع قوانين الفيزياء أي تطورات إضافية.[22]

هنالك سببان منطقيان مستقلان، ولكنهما معززان لبعضهما البعض للتطور المعرفي: الزيادة في سرعة الحسابات، والتطور في الخوارزميات المستخدمة. يتنبأ قانون مور بالأسباب السابقة وبالتطور المتوقع في المعدات، وهو مشابه نسبيًا للتطور التقني السابق. من ناحية أخرى، يعتقد باحثون في مجال الذكاء الاصطناعي أن الناحية البرمجية هي أكثر أهمية من المعدات.[23]

تطور السرعة

كتب راي كورزويل أنه بسبب النقلات النوعية ، فإن اتجاه النمو المتسارع يوسع قانون مور من الدوائر المتكاملة إلى الترانزستورات في وقت سابق

بالنسبة لكل من الذكاء البشري والاصطناعي، فإن تطور المعدات سيزيد من سرعة تطورها في المستقبل.[24] وبصورة أبسط، يقول قانون مور إنه إذا تطلبت أول مضاعفة في السرعة 18 شهر، ستتطلب المضاعفة الثانية 18 شهر شخصي؛ أو 9 أشهر خارجية، بعد ذلك، أربعة أشهر، شهرين، وهكذا، حتى الوصول إلى سرعة التفرد.[25] قد يتم الوصول إلى حد أعلى محدد من السرعة في نهاية المطاف، على الرغم من عدم معرفة مقداره. استجاب هوكنز عام 2008 إلى غود، قائلًا إن الحد الأعلى قد يكون منخفض نسبيًا:

إن الإيمان بالفكرة هو فهم ساذج لماهية الذكاء. لنتخيل أننا لدينا أجهزة كومبيوتر تستطيع تصميم أجهزة كومبيوتر جديدة (رقائق، أنظمة وبرامجبات) أسرع من نفسها. هل سيؤدي كومبيوتر مثل هذا إلى أجهزة كومبيوتر ذات سرعة ليس لها نهاية أو حتى كومبيوتر أسرع من هذا الذي بناه الإنسان؟ لا. من الممكن ان يتسارع مقدار تطوره لفترة من الزمن، ولكن في النهاية هنالك حد لما يمكن ان يكون عليه حجم وسرعة الكومبيوتر. سينتهي بنا الحال في نفس المكان؛ الا انه سيصل هنالك أسرع بقليل. سوف لن يكون هنالك تفرد. اما إذا كان أعلى بكثير من مستويات البشر الحالية من الذكاء، فان آثار التفرد ستكون عظيمة لدرجة انها لا يمكن تمييزها عن تلك الموجودة لدى البشر مع تفرد ذو حد أعلى. على سبيل المثال، ادا ما تمكنا من زيادة سرعة التفكير بمليون ضعف، فان السنة الشخصية ستمر في غضون 30 ثانية طبيعية.

من الصعب المقارنة بصورة مباشرة بين المعدات المبنية من السيليكون والخلايا العصبية. ولكن بيرغلاس (2008) قال ان تقنية التعرف على الكلام الموجودة لدى الكومبيوتر تقترب من قدرة البشر، يبدو ان هذه القدرة لا تتطلب سوى 0.01 بالمئة من حجم الدماغ. يظهر هذا ان معدات الكومبيوتر الحديثة لا تبعد سوى خطوات بسيطة عن الوصول إلى العقل البشري.

النمو الأسي

ان النمو الأسي في تقانة الكومبيوتر، والذي اقترحه قانون مور غالبًا ما يُسْتَشْهَد به على أنه سبب لتوقع حدوث التفرد في المستقبل القريب نسبيًا، وهنالك عدد من المؤلفين الذين اقترحوا تعميم قانون مور.[26] نشر هانس مورافيك عام 1998 كتاب يظهر أن النمو الأسي من الممكن أن يرجع إلى تقانةت حوسبة سابقة للدوائر المتكاملة.

اقترح راي كورزويل قانون العائدات المتسارعة، حيث إن سرعة التغير التقني (وبصورة عامة، كل العمليات التطورية) تزداد بصورة اسية، معممًا قانون مور بنفس الطريقة التي افترضها مورافيك، ومضمننًا تقانة المواد، التقانة الطبية وغيرها.[27]

يستخدم كورزويل كلمة «التفرد» للتطور السريع في الذكاء الاصطناعي، كاتبًا على سبيل المثال ان «التفرد سيسمح لنا تجاوز القيود الموجودة في أجسامنا البيولوجية وأدمغتنا... سوف لن يكون هنالك فرق، ما بعد التفرد، بين البشر والآلات.» ويُعَرِف الموعد المتوقع للتفرد (2045) على أنه الموعد الذي سيتجاوز به ذكاء أجهزة الكومبيوتر مجموع القدرات العقلية للبشر، كاتبًا أن التطور في الحوسبة قبل هذا التاريخ «سوف لن يمثل تفرد» لأنه «لا يتطابق مع التوسع العميق في المعرفة.»

التغيرات المتسارعة

وفقاً لِكرزويل فإن الرسمُ البياني اللوغاريتمي له يُظهِرُ خمسةَ عشرَ قائمةً من النقلاتِ النوعية للأحداثِ التاريخيةِ الرئيسيةِ اتجاهاً أُسِّيَّاً

يجادل بعض مؤيدي التفرد حتميته من خلال استقراء التوجهات السابقة، وبالأخص تلك المتعلقة بتقصير الفوارق بين التطورات في التقانة. في أحد أوائل استخدامات مصطلح «التفرد» في سياق التطور التقني، يذكر ستينسلو اولام حواره مع جون فون نيومان حول التغيرات المتسارعة:

إن إحدى المحادثات المرتكزة على التطور المتسارع للتقانة والتغير في نمط حياة البشر، والذي يعطي مظهر الاقتراب من بعض التفرد الأساسي في تاريخ سباق ما بعد الأمور البشرية، كما نعلم، لن تستمر.[28]

يدعي كورزويل أن التطور التقني يتبع نمط من النمو الأسي ، متبعًا ما أسماه «قانون العائدات المتسارعة». متى ما واجهت التقانة عائقًا، كتب كورزويل، ستتغلب عليه التقانة الجديدة. ويتوقع أن النقلات النوعية ستزداد شيوعًا، مؤديةً إلى «تغيرات تقانية سريعة وعميقة للغاية، ممثلةً تمزق في بنية التاريخ البشري.» يعتقد كورويل أن التفرد سيحدث بحدود عام 2045.[29] تختلف توقعاته عن توقعات فينج، حيث إنه يتوقع صعود تدريجي نحو التفرد، بدلًا من توقع فينج المتمثل بذكاء خارق للبشر متطور بسرعة كبيرة.

التطورات الخوارزمية

بعض التقانة الذكية، مثل «ذرية الذكاء الاصطناعي»، من الممكن ان تجعل نفسها أكثر كفاءة، ليس فقط أكثر سرعة، عن طريق التعديل على رموزها. ستجعل هذه التطورات التطورات المستقبلية ممكنة، والتي بالتالي ستجعل التطورات الأخرى ممكنة، وهكذا.[10][11]

ان الآلية الخوارزمية للتطوير الذاتي تختلف عن الزيادة الخام في سرعة الحسابات بطريقتين. أولًا، لا تتطلب تأثيرات خارجية: الآلات التي تصمم معدات أسرع لا تزال تحتاج إلى بشر لتصنيع المعدات المطورة، أو لبرمجة المصانع بصورة ملاءمة. الذكاء الاصطناعي كان يكتب برمجته الخاصة، بينما يستطيع القيام بهذا عند وجوده داخل صندوق ذكاء اصطناعي.[30]

ثانيًا، طبقًا لتصور فيرنور فينج للتفرد، من الصعب للغاية التنبؤ بالنتيجة. في حين ان ازدياد السرعة يبدو انه فرق كمي فقط مقارنةً بالذكاء البشري، الا ان التطورات الخوارزمية ستختلف نوعيًا. يقارنه اليزور يودكوفسكي بالتغير الذي أحدثه الذكاء البشري: قام البشر بتغيير الكوكب بمقدار الف مرة أسرع مما قام به التطور، وبطرق مختلفة تمامًا. وبصورة مشابهة، تطور الحياة كان تسارع عظيم من السرع الجيولوجية السابقة، والذكاء المتطور من الممكن ان يجعل الاختلافات مختلفة من جديد.[31][32]

هنالك مخاطر عديدة مرتبطة بالانفجار المعرفي التفردي والناشئ من التطوير المتتالي للخوارزميات. أولًا، ان الهدف الأساسي للذكاء الاصطناعي قد لا يكون مرتبطًا بالتطوير الذاتي فحسب، فقد تصبح أهداف آلات الذكاء الاصطناعي مختلفة عن تلك المعد لها. ثانيًا، من الممكن ان تنافس أجهزة الذكاء الاصطناعي البشر مواردهم النادرة التي يستخدموها لكي يعيشوا.[33][34]

في حين انها ليست ضارة بصورة فعالة، لا يوجد هنالك سبب يجعلنا نعتقد ان اجهزة الذكاء الاصطناعي ستعزز الأهداف البشرية ما لم يتم برمجتها على هذا النحو، وإذا لم يتم برمجتها، من الممكن ان تستخدم الموارد التي تدعم وجود البشر لتصل إلى أهدافها، مؤديةً إلى انقراض الجنس البشري.[35][36][37]

يقول كارل شولمان واندريس ساندبيرغ ان التطورات الخوارزمية من الممكن ان تمثل عامل مقيد للتفرد، ولان المعدات تتطور بوتيرة ثابتة، فان تطور البرامجيات لا يمكن التنبؤ به، ومن الممكن ان تصبح في مأزق بسبب البحوث المتسلسلة والتراكمية. ويقولون إنه في حالة التفرد المقيد برمجيًا، سيصبح الانفجار المعرفي مرجح أكثر مقارنةً بالتقرد الذي تقيده المعدات، لأنه في الحالة البرمجية، حالما يتم الوصول إلى ذكاء اصطناعي بمستوى البشر، سيتمكن من العمل بصورة متسلسلة على معدات سريعة للغاية، ووفرة المعدات البسيطة ستجعل أبحاث الذكاء الاصطناعي أقل تقيدًا.[38]

النقد

يذهب بعض النقاد إلى القول أنه لن تتمكن أي آلة أو كومبيوتر من الوصول إلى الذكاء البشري مستقبلا، في حين يقول آخرون أن تعريف الذكاء لا علاقة له في حال كانت النتيجة الكلية متشابهة.

صرَّح ستيفن بينكر عام 2008 قائلاً:

«لا يوجد هنالك أبسط دليل يجعلنا نؤمن بقدوم التفرد. حقيقة أنك تستطيع تخيل المستقبل في دماغك لا يعني أنه من المرجح أو حتى مُمكن. انظروا إلى المدن الهالكة، والتنقل بالحقيبة الطائرة، والمدن الموجودة تحت الماء، والأبنية بالغة طولها ميل، والسيارات ذات الوقود النووي، كلها كانت خيالات مستقبلية عندما كنت طفلًا لم تحدث حتى الآن. إن قوة المعالجة الكلية ليست جنية الرمل تحل مشاكلك بصورةٍ سحرية.[17]»

كتب جون سورل أستاذ الفلسفة في جامعة كاليفورنيا ببيركلي:

«لا تملك أجهزة الكومبيتر اي ذكاء او دوافع، او استقلال. نحن نصممها لتتصرف كما لو انها كان لديها سايكولوجيا خاصة بها، ولكن لا يوجد واقع نفسي للسلوكيات او العمليات المقابلة ... ليس للآلات اي معتقدات او رغبات او دوافع.[39]»

التأثير

حدثت تغييرات جذرية في معدل النمو الاقتصادي في الماضي بسبب بعض التقدم التقني. استناداً إلى النمو السكاني ، تضاعف الاقتصاد كل 250,000 سنة من العصر الحجري القديم حتى «ثورة العصر الحجري الحديث». تضاعف الاقتصاد الزراعي الجديد كل 900 سنة ، وهي زيادة ملحوظة. في العصر الحالي ، بدءًا بالثورة الصناعية، يتضاعف الناتج الاقتصادي العالمي كل خمسة عشر عاماً ، أي أسرع بعشرين مرة مما كان عليه في الحقبة الزراعية. يقول روبن هانسون ، إذا كان صعود الذكاء الاصطناعي الخارق يسبب ثورة مماثلة ، فإن المرء يتوقع أن يتضاعف الاقتصادي كل ربع سنة على الأقل وربما على أساس أسبوعي.[40]

عدم اليقين والمخاطر

يعكس مصطلح التفرد التقني فكرة أن تغير مثل هذا من الممكن أن يحصل بصورة مفاجئة، ومن الصعب التنبؤ حول كيف سيبدو العالم الجديد.[41][42] من غير الواضح ما إذا كان هذا النوع من الانفجار المعرفي ذو فائدة أو ضرر أو حتى ذو خطر وجودي،[43][44] كما لم يتم التعامل مع هذه المشكلة من قبل باحثي الذكاء الاصطناعي، على الرغم من أن موضوع الذكاء الاصطناعي الودي تمت مناقشته من قبل معهد مستقبل الإنسانية ومعهد أبحاث ذكاء الآلات.[41]

الآثار المترتبة على المجتمع البشري

في شباط / فبراير 2009، برعاية جمعية النهوض بالذكاء الاصطناعي (AAAI)، ترأس إيريك هورفيتز اجتماعاً لعلماء الحاسوب البارزين ، باحثين في مجال الذكاء الاصطناعي ، وعاملين في مجال الروبوتات في أسيلومار في باسيفيك جروف، كاليفورنيا. كان الهدف هو مناقشة التأثير المحتمل للاحتمالية الافتراضية بأن الروبوتات يمكن أن تصبح مكتفية ذاتيا وقادرة على اتخاذ قراراتها الخاصة. ناقشوا مدى قدرة أجهزة الحاسوب والروبوتات في الحصول على الاستقلالية ، وإلى أي درجة يمكن أن يستخدموا مثل هذه القدرات لتشكيل التهديدات أو المخاطر.[45]

تتم برمجة بعض الآلات بأشكال مختلفة من الاستقلالية ، بما في ذلك القدرة على تحديد مصادر الطاقة الخاصة بهم واختيار الأهداف لمهاجمتها بالأسلحة. أيضا ، يمكن لبعض فيروسات الحاسوب الهروب من التدمير ، ووفقا للعلماء الحاضرين ، يمكن القول إنه وصل إلى مرحلة «الصرصور» من الذكاء الآلي. لاحظ المشاركون في المؤتمر أن الوعي الذاتي كما هو موضح في الخيال العلمي هو على الأرجح غير محتمل ، ولكن هناك مخاطر محتملة أخرى.[45]

الخطر الوجودي

يقول بيرغلاس (2008) انه لا يوجد هنالك دافع تطوري ليكون الذكاء الاصطناعي ودي في تعامله مع البشر. ان التطور لا يملك نزعة موروثة لتكوين نتائج يقدرها البشر، وليس هناك سببًا لتوقع عملية تحسين تعسفي لترويج النتيجة التي تريدها البشرية، بدل من ان تكون دون قصد مؤديةً إلى ذكاء اصطناعي يتصرف بطريقة لا يقصدها مصنعيها (مثل مثال نيك بوستروم الغريب لآلة ذكاء اصطناعي يتم برمجتها لهدف تصنيع مشبك ورق، ولأنها حصلت على ذكاء خارق، قررت تحويل الكوكب بأجمعه إلى منشأة لتصنيع مشابك أوراق).[46][47][48]

ناقش بوستروم (2002) سيناريوات انقراض البشر، ويُدرِج الذكاء الخارق على انه أحد الأسباب المحتملة:[49]

«عندما نصنع أول كيان خارق للذكاء، قد نخطأ ونعطيه مهام تؤدي إلى القضاء على البشرية، على افتراض ان القدرة الفكرية الهائلة لها القدرة على فعل ذلك. على سبيل المثال، من الممكن ان يتحول هدف ثانوي إلى هدف رئيسي، عن طريق الخطأ. نحن نطلب منه حل المشاكل الرياضية، ويقوم بتحويل كل المادة الموجودة في النظام الشمسي إلى حاسوب عملاق، وقتل الشخص الذي طرح السؤال في هذه العملية.»

الخلود

يقول كورزويل في كتاب «التفرد قريب» عام 2005، أن التطور الطبي سيسمح للبشر بالدفاع عن أجسامهم من آثار تقدم العمر، مما يجعل متوسط العمر المتوقع لا حد له. ويقول كورزويل كذلك إن التطورات التقانية في الطب ستسمح لنا ترميم واستبدال الأجزاء التالفة في أجسامنا، مما يؤدي إلى إطالة الحياة حتى عمر غير محدد.[50] يقترح كورزويل العلاج الجيني الجسدي؛ بعد الفيروسات الصناعية ذات المعلومات الجينية المحددة، ستكون الخطوة التالية هي تطبيق هذه التقانة على العلاج الجيني، واستبدال الحمض النووي للبشر بجينات مصنعة.[51]

المراجع

  1. ^ Cadwalladr, Carole (2014). "Are the robots about to rise? Google's new director of engineering thinks so…" The Guardian. Guardian News and Media Limited. نسخة محفوظة 04 أكتوبر 2018 على موقع واي باك مشين.
  2. ^ ا ب Eden, Amnon H.؛ Moor, James H. (2012). Singularity hypotheses: A Scientific and Philosophical Assessment. Dordrecht: Springer. ص. 1–2. ISBN:9783642325601.{{استشهاد بكتاب}}: صيانة الاستشهاد: التاريخ والسنة (link)
  3. ^ Ulam، Stanislaw (مايو 1958). "Tribute to John von Neumann". Bulletin of the American Mathematical Society. 64, #3, part 2: 5. مؤرشف من الأصل في 2018-05-26. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  4. ^ Chalmers، David (2010). "The singularity: a philosophical analysis". Journal of Consciousness Studies. ج. 17 ع. 9–10: 7–65.
  5. ^ ا ب ج د Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993. نسخة محفوظة 10 أبريل 2018 على موقع واي باك مشين.
  6. ^ Khatchadourian، Raffi (16 نوفمبر 2015). "The Doomsday Invention". The New Yorker. مؤرشف من الأصل في 2019-04-29. اطلع عليه بتاريخ 2018-01-31.
  7. ^ Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  8. ^ Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment نسخة محفوظة 08 أكتوبر 2018 على موقع واي باك مشين.
  9. ^ Superbrains born of silicon will change everything. نسخة محفوظة August 1, 2010, على موقع واي باك مشين.
  10. ^ ا ب Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  11. ^ ا ب Eliezer Yudkowsky. General Intelligence and Seed AI-Creating Complete Minds Capable of Open-Ended Self-Improvement, 2001
  12. ^ Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965. نسخة محفوظة May 1, 2012, على موقع واي باك مشين.
  13. ^ Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  14. ^ "h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways". Hplusmagazine.com. مؤرشف من الأصل في 2010-12-23. اطلع عليه بتاريخ 2011-09-09.
  15. ^ Yudkowsky, Eliezer. The Singularity: Three Major Schools نسخة محفوظة 01 أكتوبر 2018 على موقع واي باك مشين.
  16. ^ أنديرس ساندبرغ (عالم حاسوب). An overview of models of technological singularity نسخة محفوظة 11 أغسطس 2017 على موقع واي باك مشين.
  17. ^ ا ب "Tech Luminaries Address Singularity – IEEE Spectrum". Spectrum.ieee.org. مؤرشف من الأصل في 2019-04-30. اطلع عليه بتاريخ 2011-09-09.
  18. ^ "Who's Who In The Singularity – IEEE Spectrum". Spectrum.ieee.org. مؤرشف من الأصل في 2016-01-24. اطلع عليه بتاريخ 2011-09-09.
  19. ^ Paul Allen: The Singularity Isn't Near، مؤرشف من الأصل في 2020-12-19، اطلع عليه بتاريخ 2015-04-12
  20. ^ "What is the Singularity? | Singularity Institute for Artificial Intelligence". Singinst.org. مؤرشف من الأصل في 2011-09-08. اطلع عليه بتاريخ 2011-09-09.
  21. ^ David Chalmers John Locke Lecture, 10 May, Exam Schools, Oxford, Presenting a philosophical analysis of the possibility of a technological singularity or "intelligence explosion" resulting from recursively self-improving AI نسخة محفوظة 2013-01-15 على موقع واي باك مشين.. [وصلة مكسورة]
  22. ^ Grace، Katja؛ Salvatier، John؛ Dafoe، Allan؛ Zhang، Baobao؛ Evans، Owain (24 مايو 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  23. ^ The Singularity: A Philosophical Analysis, David J. Chalmers نسخة محفوظة 13 سبتمبر 2018 على موقع واي باك مشين.
  24. ^ Siracusa، John (31 أغسطس 2009). "Mac OS X 10.6 Snow Leopard: the Ars Technica review". Arstechnica.com. مؤرشف من الأصل في 2012-05-09. اطلع عليه بتاريخ 2011-09-09.
  25. ^ Eliezer Yudkowsky, 1996 "Staring into the Singularity" نسخة محفوظة 30 مارس 2018 على موقع واي باك مشين.
  26. ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. ص. 61. ISBN:978-0-19-513630-2. مؤرشف من الأصل في 2012-06-21.
  27. ^ "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), ساينس, 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html نسخة محفوظة 07 يناير 2016 على موقع واي باك مشين.
  28. ^ Kurzweil، Raymond (2001)، "The Law of Accelerating Returns"، Nature Physics، Lifeboat Foundation، ج. 4، ص. 507، Bibcode:2008NatPh...4..507B، DOI:10.1038/nphys1010، مؤرشف من الأصل في 2018-08-27، اطلع عليه بتاريخ 2007-08-07
  29. ^ The Singularity Is Near
  30. ^ Eliezer S. Yudkowsky. "Power of Intelligence". Yudkowsky. مؤرشف من الأصل في 2018-10-03. اطلع عليه بتاريخ 2011-09-09.
  31. ^ Omohundro, Stephen M., "The Basic AI Drives." Artificial General Intelligence, 2008 proceedings of the First AGI Conference, eds. Pei Wang, Ben Goertzel, and Stan Franklin. Vol. 171. Amsterdam: IOS, 2008 نسخة محفوظة 17 سبتمبر 2018 على موقع واي باك مشين.
  32. ^ "Artificial General Intelligence: Now Is the Time". KurzweilAI. مؤرشف من الأصل في 2011-12-04. اطلع عليه بتاريخ 2011-09-09.
  33. ^ Omohundro, Stephen M., "The Nature of Self-Improving Artificial Intelligence." Self-Aware Systems. 21 Jan. 2008. Web. 07 Jan. 2010. نسخة محفوظة 12 يونيو 2018 على موقع واي باك مشين.
  34. ^ Barrat، James (2013). "6, "Four Basic Drives"". Our Final Invention (ط. First). New York: St. Martin's Press. ص. 78–98. ISBN:978-0312622374.
  35. ^ "Max More and Ray Kurzweil on the Singularity". KurzweilAI. مؤرشف من الأصل في 2018-11-21. اطلع عليه بتاريخ 2011-09-09.
  36. ^ "Concise Summary | Singularity Institute for Artificial Intelligence". Singinst.org. مؤرشف من الأصل في 2011-06-21. اطلع عليه بتاريخ 2011-09-09.
  37. ^ Bostrom, Nick, The Future of Human Evolution, Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy, pp. 339–371, 2004, Ria University Press. نسخة محفوظة 28 أغسطس 2018 على موقع واي باك مشين.
  38. ^ Shulman، Carl؛ Anders Sandberg (2010). Mainzer، Klaus (المحرر). "Implications of a Software-Limited Singularity" (PDF). ECAP10: VIII European Conference on Computing and Philosophy. مؤرشف من الأصل (PDF) في 2019-04-30. اطلع عليه بتاريخ 2014-05-17.
  39. ^ John R. Searle, “What Your Computer Can’t Know”, The New York Review of Books, 9 October 2014, p. 54.
  40. ^ Robin Hanson، "Economics Of The Singularity"، IEEE Spectrum Special Report: The Singularity، مؤرشف من الأصل في 2019-05-27، اطلع عليه بتاريخ 2008-09-11 & Long-Term Growth As A Sequence of Exponential Modes
  41. ^ ا ب Yudkowsky، Eliezer (2008)، Bostrom، Nick؛ Cirkovic، Milan (المحررون)، "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF)، Global Catastrophic Risks، Oxford University Press، ص. 303، Bibcode:2008gcr..book..303Y، ISBN:978-0-19-857050-9، مؤرشف من الأصل (PDF) في 2008-08-07
  42. ^ "The Uncertain Future". theuncertainfuture.com; a future technology and world-modeling project. مؤرشف من الأصل في 2019-04-30.
  43. ^ "GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom" (PDF). مؤرشف من الأصل (PDF) في 2011-05-16.
  44. ^ "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". nickbostrom.com. مؤرشف من الأصل في 2019-05-13.
  45. ^ ا ب Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009. نسخة محفوظة 30 سبتمبر 2018 على موقع واي باك مشين.
  46. ^ Nick Bostrom, "Ethical Issues in Advanced Artificial Intelligence", in Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, Vol. 2, ed. I. Smit et al., Int. Institute of Advanced Studies in Systems Research and Cybernetics, 2003, pp. 12–17 نسخة محفوظة 08 أكتوبر 2018 على موقع واي باك مشين.
  47. ^ Eliezer Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk نسخة محفوظة 2012-06-11 على موقع واي باك مشين.. Draft for a publication in Global Catastrophic Risk from August 31, 2006, retrieved July 18, 2011 (PDF file) [وصلة مكسورة]
  48. ^ The Stamp Collecting Device, Nick Hay نسخة محفوظة 17 يونيو 2012 على موقع واي باك مشين. [وصلة مكسورة]
  49. ^ 'Why we should fear the Paperclipper', 2011-02-14 entry of Sandberg's blog 'Andart' نسخة محفوظة 08 أغسطس 2018 على موقع واي باك مشين.
  50. ^ The Singularity Is Near, p.215,
  51. ^ The Singularity is Near, p.216.

Read other articles:

Pius NjawéPius Njawé saat konferensi di ParisLahir4 Maret 1957Babouantou, KamerunMeninggal12 Juli 2010(2010-07-12) (umur 53)Chesapeake, Virginia, ASKebangsaanKamerunPekerjaanjurnalisOrganisasiLe MessagerSuami/istriJane NjawéAnakdelapanPenghargaanCPJ International Press Freedom Award (1991)Golden Pen of Freedom Award(1993)World Press Freedom Hero (2000) Pius Njawé (4 Maret 1957 – 12 Juli 2010) seorang jurnalis dan direktur Le Messager serta Le Messager Populi. Ditangk...

 

 

CrawlingSingel oleh Linkin Parkdari album Hybrid TheorySisi-BPapercut (Langsung dari BBC)Dirilis14 November 2000[1]DirekamNew Orleans, Louisiana, 1998-1999Genre Nu metal[2][3] rap metal[4] rap rock[3] Durasi3:29LabelWarner Bros.PenciptaLinkin ParkProduserDon GilmoreKronologi singel Linkin Park One Step Closer (2000) Crawling (2000) Papercut (2001) Video musikCrawling di YouTube Crawling adalah sebuah lagu oleh grup musik rok Amerika Linkin Park. Ini ada...

 

 

Gambar Permakaman Scaliger. Di latar depan makam Cansignorio dan Mastino II di belakang. Makam Scaliger (Italian: Arche scaligere) merupakan kelompok dari lima monumen makam Gothik di Verona, Italia, yang dibangun untuk keluarga Scaliger, yang memerintah di Verona dari abad ke-13 sampai di akhir abad ke-14. Permakaman itu berlokasi di dalam halaman yang dikelilingi dinding gereja Santa Maria Antica, terpisah dari jalan oleh suatu dinding dengan besi kisi-kisi. Terdapat sekelompok makam dengan...

Синелобый амазон Научная классификация Домен:ЭукариотыЦарство:ЖивотныеПодцарство:ЭуметазоиБез ранга:Двусторонне-симметричныеБез ранга:ВторичноротыеТип:ХордовыеПодтип:ПозвоночныеИнфратип:ЧелюстноротыеНадкласс:ЧетвероногиеКлада:АмниотыКлада:ЗавропсидыКласс:Пт�...

 

 

High rise in Tampa, Florida Wells Fargo Center387,477 Square Foot Class A Office Building in Downtown TampaGeneral informationStatusRenovations Underway 2013TypeOfficeLocation100 S. Ashley Drive, Tampa FL 33602Coordinates27°56′41″N 82°27′28″W / 27.94467°N 82.45786°W / 27.94467; -82.45786Completed1985OwnerJoint Venture of Feldman Equities, Inc. and Tower Realty PartnersManagementTower Realty PartnersHeightRoof311 ft (95 m)Technical detailsFloor cou...

 

 

American Founding Father and judge Francis HopkinsonA 1785 portrait of Hopkinson by Robert Edge PineJudge of the United States District Court for the District of PennsylvaniaIn officeSeptember 26, 1789 – May 9, 1791Appointed byGeorge WashingtonPreceded bySeat established by 1 Stat. 73Succeeded byWilliam Lewis Personal detailsBorn(1737-10-02)October 2, 1737Philadelphia,Province of Pennsylvania,British AmericaDiedMay 9, 1791(1791-05-09) (aged 53)Philadelphia, Pennsylvania, U.S.R...

Office in Johannesburg, South AfricaAbsa TowerGeneral informationStatusCompletedTypeOfficeArchitectural styleModernLocationJohannesburg, South AfricaAddress160 Main StreetCoordinates26°12′19″S 28°02′59″E / 26.20535°S 28.04980°E / -26.20535; 28.04980Completed1970Opening1970OwnerAbsa Group LimitedHeightArchitectural140 metres (460 ft)Tip140 metres (460 ft)Roof140 metres (460 ft)Technical detailsFloor count31References[1][2][...

 

 

MamaPoster promosiGenreDrama keluarga Melodrama RomansaDitulis olehYoo Yoon-kyungSutradaraKim Sang-hyupPemeranSong Yun-ahHong Jong-hyunJung Joon-hoMoon Jung-heeNegara asalKorea SelatanBahasa asliKoreaJmlh. episode24ProduksiProduser eksekutifKim Kyung-heeProduserKim Hee-yeolLokasi produksiKoreaDurasiSabtu dan Minggu pukul 21:45 (WSK)Rumah produksiPan EntertainmentRilis asliJaringanMunhwa Broadcasting CorporationRilis2 Agustus (2014-08-02) –19 Oktober 2014 (2014-10-19) Mama (H...

 

 

1958 painting by Mark Rothko No. 10ArtistMark RothkoYear1958MediumOil on canvasDimensions239.4 cm × 175.9 cm (94.3 in × 69.3 in)LocationPrivate collection No. 10 is a 1958 painting by the Jewish-American Abstract expressionist artist Mark Rothko. It was painted in 1958. In common with Rothko's other works from this period, No 10 consists of expanses of colour with dark shades.[1] In 2015 No. 10 was bought for $82 million by an anonymous buye...

American guitarist Stone GossardGossard in October 2014Background informationBirth nameStone Carpenter GossardAlso known asCarpenter NewtonBorn (1966-07-20) July 20, 1966 (age 57)Seattle, Washington, U.S.GenresAlternative rockgrungeglam punkpunk rockhard rockheavy metalglam metalOccupation(s)MusiciansongwriterInstrument(s)GuitarvocalsYears active1984–presentMusical artist Stone Carpenter Gossard (born July 20, 1966) is an American musician who serves as a guitarist for the rock band Pe...

 

 

此条目序言章节没有充分总结全文内容要点。 (2019年3月21日)请考虑扩充序言,清晰概述条目所有重點。请在条目的讨论页讨论此问题。 哈萨克斯坦總統哈薩克總統旗現任Қасым-Жомарт Кемелұлы Тоқаев卡瑟姆若马尔特·托卡耶夫自2019年3月20日在任任期7年首任努尔苏丹·纳扎尔巴耶夫设立1990年4月24日(哈薩克蘇維埃社會主義共和國總統) 哈萨克斯坦 哈萨克斯坦政府...

 

 

Divisions of Ghana Politics of Ghana Constitution Executive President (list) Nana Akufo-Addo Vice President Mahamudu Bawumia Ministers Council of State Legislative Speaker of the Parliament Alban Sumana Bagbin Parliament Members of Parliament Judiciary Supreme Court Chief Justice: Kwasi Anin-Yeboah Human rights Elections Constituencies Political parties Politicians Electoral Commission Recent elections General: 201620202024 Administrative divisions Regions Districts Foreign relations Ministry...

Авиационная промышленность России — крупная отрасль российского машиностроения, осуществляющая разработку и производство авиационной техники. В сфере самолётостроения Россия выпускает, в частности, истребители, бомбардировщики, учебно-боевые, военно-транспортные...

 

 

U.S. holiday, 3rd Monday of January Martin Luther King Jr. DayKing in 1965Official nameBirthday of Martin Luther King, Jr.Also calledMLK Day, King Day, Reverend Dr. Martin Luther King Jr. DayTypeFederalDateThird Monday in January2023 dateJanuary 16  (2023-01-16)2024 dateJanuary 15  (2024-01-15)2025 dateJanuary 20  (2025-01-20)2026 dateJanuary 19  (2026-01-19)FrequencyAnnualFirst time1986; 38 years ago (1986) This article is part o...

 

 

Egyptian-American Quranist (1935–1990) DoctorRashad Khalifaرشاد خليفةBorn(1935-11-19)November 19, 1935EgyptDiedJanuary 31, 1990(1990-01-31) (aged 54)Tucson, Arizona, U.S.Cause of deathAssassination[1]NationalityEgyptian-AmericanOccupationBiochemistKnown forMathematically analysing the Quran via computers and translating it[2][3][4]MovementQuranism United Submitters International ChildrenSam Khalifa and Beth Bujarski Rashad Khalifa (Ara...

Stade Olympiqueالملعب الأولمبيFull nameComplexe Olympique de la République Islamique de MauritanieFormer namesStade de la CapitaleLocationNouakchott, MauritaniaCapacity20,000SurfaceGrassConstructionBuilt23 January 1980Opened14 July 1983Renovated2002, 2020TenantsMauritania national football team The Stade Olympique (Arabic: الملعب الأولمبي) is a multi-purpose stadium in Nouakchott, Mauritania. It is used mostly for football matches. It also has an athletics track. ...

 

 

Military headquarters facility of the British Armed Forces in Eastbury, Hertfordshire, England Northwood HeadquartersEastbury, Hertfordshire in EnglandThe Permanent Joint Headquarters (PJHQ) building at Northwood HeadquartersNorthwood HQLocation in Greater LondonCoordinates51°37′10″N 000°24′34″W / 51.61944°N 0.40944°W / 51.61944; -0.40944TypeMilitary headquartersSite informationOwnerMinistry of DefenceOperator Royal Navy British Army Roy...

 

 

Rapat Dewan Direksi Pusat Hubungan Antaragama Dewan direksi atau dewan pengarah (bahasa Inggris: board of directors) adalah panitia eksekutif yang bersama-sama mengawasi kegiatan suatu organisasi, yang dapat berupa organisasi nirlaba atau nirlaba seperti niaga, organisasi nirlaba, atau lembaga pemerintah. Wewenang, tugas, dan tanggung jawab dewan direksi ditentukan oleh peraturan pemerintah (termasuk undang-undang perusahaan di yurisdiksi tersebut) dan anggaran dasar serta anggaran rumah ...

Finnish politician (1947–2024) This article includes a list of references, related reading, or external links, but its sources remain unclear because it lacks inline citations. Please help improve this article by introducing more precise citations. (July 2023) (Learn how and when to remove this message) You can help expand this article with text translated from the corresponding article in Finnish. (July 2023) Click [show] for important translation instructions. View a machine-translat...

 

 

1974 single by ABBAI've Been Waiting for YouSingle by ABBAfrom the album ABBA B-sideKing Kong SongReleased18 November 1974Recorded15 September 1974StudioGlen Studio, StockholmLength3:41LabelPolar MusicSongwriter(s)Benny AnderssonBjörn UlvaeusStig AndersonProducer(s)Benny AnderssonBjörn UlvaeusABBA singles chronology So Long (1974) I've Been Waiting for You (1974) I Do, I Do, I Do, I Do, I Do (1975) AudioI've Been Waiting For You on YouTube I've Been Waiting for You is a song recorded in 197...