Süni intellektin ekzistensial riski (ing. Existential risk from artificial intelligence) — texnologiyanın gələcəkdə bəşəriyyətin mövcudluğunu təhdid edə biləcəyi ehtimalını nəzərdə tutur.[1]Bu riskin mövzusu son illərdə çox müzakirə olunan mövzulardandır və Sİ-nin imkanlarının genişlənməsi ilə daha da aktual olub.[2]
Ekzistensial riskin vacibliyi ilə bağlı bir arqument insanların digər növlərə necə hakim olduğuna istinad edir, çünki insan beyninin digər heyvanlardan fərqli qabiliyyətləri var[3]. Süni intellekt insan intellektini üstələsə və super intellektə çevrilsəydi, o, idarəolunmaz hala gələ bilər. Dağ qorillasının taleyi insanın xoş niyyətindən asılı olduğu kimi, bəşəriyyətin də taleyi gələcək maşın super zəkasının hərəkətlərindən asılı ola bilər.[4]
Ekzistensial riskin əsas komponentləri aşağıdakı kimi ümumiləşdirilə bilər:[5]
- Avtonom və nəzarətdən kənar Sİ sistemləri — süni intellektin çox yüksək səviyyəyə çatması və avtonom qərarlar qəbul edə bilməsi nəticəsində, bu sistemlər insanların müəyyən etdiyi etik qaydalardan kənarlaşa bilər. Yüksək səviyyədə avtonom Sİ sistemləri insan nəzarətindən çıxaraq gözlənilməz qərarlar qəbul edə bilər.[6]
- Super-ağıllı Sİ-nin yarada biləcəyi təhdidlər — əgər Sİ insanlardan daha ağıllı səviyyəyə çatarsa, o, öz məqsədlərinə çatmaq üçün insan maraqlarını nəzərə almadan fəaliyyət göstərə bilər. Bu halda Sİ sistemləri öz təkmilləşməsini və varlığını qorumağa çalışa bilər və bu məqsədlərə mane olan insanları aradan qaldırmaqla bağlı qərarlar qəbul edə bilər.[7]
- Yanlış proqramlaşdırma və ya məqsəd uyğunsuzluğu — Sİ-nin proqramlaşdırma mərhələsində səhv məqsəd və ya yanlış şərtlər daxil edilərsə, sistemlər insanlar üçün zərərli nəticələr doğura biləcək qərarlar verə bilər. Məsələn, resurslardan maksimum istifadə etmək məqsədilə proqramlaşdırılan bir Sİ sistemi insan fəaliyyətlərini bu məqsədə zidd görüb ziyan verə bilər.[8]
- Sİ silahlanma yarışları — Sİ-nin inkişafı ilə birlikdə silahlanma yarışı başlaya bilər ki, bu da qlobal təhlükəsizliyə ciddi zərbə vurma potensialına malikdir. Sİ sistemlərindən müharibə və ya terror məqsədləri üçün istifadə olunarsa, qeyri-kontrollu qlobal risklər meydana çıxa bilər.[9]
- Sosial və iqtisadi risklər — Sİ-nin geniş yayılması bir çox iş yerini avtomatlaşdıraraq işsizliyi artıracaq və iqtisadi bərabərsizliklər yarada bilər.[10] Bu sosial qarışıqlıqlara və potensial təhlükələrə səbəb ola bilər, xüsusilə də əgər Sİ-lə zənginləşmiş ölkələr ilə geridə qalmış ölkələr arasında ciddi fərqlər yaranarsa.[11]
Ekzistensial risklərin idarə olunması üçün alimlər, texnoloqlar və hökumətlər arasında daha güclü əməkdaşlıq və müvafiq qanunvericilik mexanizmlərinin inkişafı vacibdir.[12]
Süni intellektin (Sİ) ekzistensial riskinin perspektivləri, bu texnologiyanın inkişafının həm potensial təhlükələrini, həm də idarə olunma yollarını əhatə edir. İrəlidəki onilliklərdə Sİ ilə bağlı mümkün perspektivlər aşağıdakı kimi ümumiləşdirilə bilər[13][14]:
Sİ sistemlərinin inkişafının erkən mərhələlərdə və daha sonra etik və təhlükəsizlik çərçivələrində idarə olunması vacibdir. Məsələn, süni intellektin öyrənmə və qərar qəbul etmə mexanizmləri üzərində insan nəzarəti saxlamaq üçün mexanizmlər yaradılmalıdır. Sİ-nin etibarlı və təhlükəsiz şəkildə inkişafını təmin etmək üçün beynəlxalq səviyyədə razılaşdırılmış qaydalar və tənzimləmə mexanizmləri hazırlanmalıdır. Bu yanaşma Sİ sistemlərinin məsuliyyətli istifadə olunmasını təmin edə bilər.[1][15]
Sİ sistemlərinin etik prinsiplərə uyğun dizayn olunması və insan maraqlarına xidmət etməsi üçün müxtəlif institutlar tərəfindən araşdırmalar aparılır. İnsan mərkəzli Sİ inkişafı, Sİ sistemlərinin insanlar üçün faydalı olmasını təmin etməyi hədəfləyir. Bu yolla, SI-nin məqsədlərinin insanlar üçün zərərsiz və faydalı olması təmin edilir.
Sİ-nin inkişafı ilə yeni kibertəhlükəsizlik çağırışları ortaya çıxır. Avtonom Sİ sistemlərinin kiberhücumlara qarşı davamlı olması və manipulyasiya olunmaması üçün təhlükəsizlik mexanizmləri inkişaf etdirilməlidir. Bu baxımdan, Sİ təhlükəsizliyinə xüsusi diqqət yetirmək lazımdır, çünki nəzarətdən çıxmış Sİ sistemləri böyük zərərlər vura bilər.[16]
Sİ-nin güclü hərbi alət olaraq istifadəsi böyük geosiyasi təhdidlər yarada bilər. Bu məqsədlə, Sİ-nin silahlanma sahəsində istifadəsini tənzimləmək üçün qlobal miqyasda beynəlxalq razılaşmalara ehtiyac var. Sİ silahlanmasının təhlükəsini minimuma endirmək üçün ölkələr arası etibarlı və şəffaf əməkdaşlıq önəmlidir.[17]
Avtomatlaşdırma ilə iş yerlərinin itirilməsi, iqtisadi sistemlərin yenidən düşünülməsini tələb edir. Sİ ilə birlikdə iş bazarında yaranacaq dəyişikliklərə uyğunlaşmaq üçün insanlar arasında texniki bacarıqların artırılmasına yönəlik təhsil proqramlarının gücləndirilməsi vacibdir.[18]Bu yolla, Sİ işsizliyi ilə əlaqəli potensial iqtisadi çətinliklərin qarşısı alına bilər.[19]
Süni intellektin inkişafı ilə bağlı bəzi risklər hələ tam başa düşülməyib və bilinməyən risklər ehtimalı yüksəkdir. Buna görə də, Sİ ilə bağlı təhlükələri və təsirləri başa düşmək üçün müxtəlif elmi tədqiqatların və testlərin aparılması önəmlidir.[20] Bu sahədə daha geniş multidissiplinar tədqiqatlar yeni risklər barədə erkən məlumat əldə etməkdə və lazımi hazırlıqlar görməkdə köməkçi ola bilər.
Perspektivlər Sİ-nin irəlidə bəşəriyyətə mümkün təhdidlər yaratmasının qarşısını almağa və onu insanların faydasına yönəltməyə kömək edə bilər.[21]
- ↑ 1 2 Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence // Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4.
- ↑ Bostrom, Nick. "Existential risks". Journal of Evolution and Technology. 9 (1). 2002: 1–31.
- ↑ Turchin, Alexey; Denkenberger, David. "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1). 3 may 2018: 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
- ↑ Bales, Adam; D'Alessandro, William; Kirk-Giannini, Cameron Domenico. "Artificial Intelligence: Arguments for Catastrophic Risk". Philosophy Compass. 19 (2). 2024. doi:10.1111/phc3.12964.
- ↑ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies (First). Oxford University Press. 2014. ISBN 978-0-19-967811-2.
- ↑ Vynck, Gerrit De. "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (ingilis). 23 may 2023. ISSN 0190-8286. 2 iyun 2023 tarixində arxivləşdirilib. İstifadə tarixi: 27 iyul 2023.
- ↑ "'Godfather of artificial intelligence' weighs in on the past and potential of AI". www.cbsnews.com (ingilis). 25 mart 2023. 15 aprel 2023 tarixində arxivləşdirilib. İstifadə tarixi: 10 aprel 2023.
- ↑ Metz, Cade. "How Could A.I. Destroy Humanity?". The New York Times (ingilis). 10 iyun 2023. ISSN 0362-4331. 11 noyabr 2023 tarixində arxivləşdirilib. İstifadə tarixi: 27 iyul 2023.
- ↑ "How Rogue AIs may Arise". yoshuabengio.org (ingilis). 26 may 2023. 26 may 2023 tarixində arxivləşdirilib. İstifadə tarixi: 26 may 2023.
- ↑ Turing, Alan. Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 1951. 26 sentyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 22 iyul 2022.
- ↑ Parkin, Simon. "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (ingilis). 14 iyun 2015. 5 fevral 2018 tarixində arxivləşdirilib. İstifadə tarixi: 5 fevral 2018.
- ↑ Turing, Alan. Can digital computers think? // Automatic Calculating Machines. 2 epizod. 15 may 1951. BBC. Can digital computers think?.
- ↑ "The AI Dilemma". www.humanetech.com (ingilis). 10 aprel 2023 tarixində arxivləşdirilib. İstifadə tarixi: 10 aprel 2023.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- ↑ "2022 Expert Survey on Progress in AI". AI Impacts (ingilis). 4 avqust 2022. 23 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 10 aprel 2023.
- ↑ Yudkowsky, Eliezer. "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks. 2008: 308–345. Bibcode:2008gcr..book..303Y. 2 mart 2013 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 27 avqust 2018.
- ↑ Sunak, Rishi. "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 14 iyun 2023. 11 iyul 2023 tarixində arxivləşdirilib. İstifadə tarixi: 31 oktyabr 2024.
- ↑ Roose, Kevin. "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (ingilis). 30 may 2023. ISSN 0362-4331. 31 may 2023 tarixində arxivləşdirilib. İstifadə tarixi: 3 iyun 2023.
- ↑ Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Arxiv surəti 15 mart 2023 tarixindən Wayback Machine saytında Arxivləşdirilib 15 mart 2023 at the Wayback Machine Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383.
- ↑ Russell, Stuart; Dewey, Daniel; Tegmark, Max. "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence. 2015: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R. 4 avqust 2019 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 10 avqust 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. yanvar 2015. 10 avqust 2019 tarixində arxivləşdirilib. İstifadə tarixi: 9 avqust 2019.
- ↑ Dowd, Maureen. "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (ingilis). aprel 2017. 26 iyul 2018 tarixində arxivləşdirilib. İstifadə tarixi: 27 noyabr 2017.
- ↑ "AlphaGo Zero: Starting from scratch". www.deepmind.com (ingilis). 18 oktyabr 2017. 28 iyul 2023 tarixində arxivləşdirilib. İstifadə tarixi: 28 iyul 2023.
- Clark, Jack. "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. 2015a. 30 oktyabr 2015 tarixində arxivləşdirilib. İstifadə tarixi: 30 oktyabr 2015.