Süni intellektin ekzistensial riski (ing. Existential risk from artificial intelligence) — texnologiyanın gələcəkdə bəşəriyyətin mövcudluğunu təhdid edə biləcəyi ehtimalını nəzərdə tutur.Bu riskin mövzusu son illərdə çox müzakirə olunan mövzulardandır və Sİ-nin imkanlarının genişlənməsi ilə daha da aktual olub.
Ekzistensial riskin vacibliyi ilə bağlı bir arqument insanların digər növlərə necə hakim olduğuna istinad edir, çünki insan beyninin digər heyvanlardan fərqli qabiliyyətləri var. Süni intellekt insan intellektini üstələsə və super intellektə çevrilsəydi, o, idarəolunmaz hala gələ bilər. Dağ qorillasının taleyi insanın xoş niyyətindən asılı olduğu kimi, bəşəriyyətin də taleyi gələcək maşın super zəkasının hərəkətlərindən asılı ola bilər.
Əsas komponentləri
Ekzistensial riskin əsas komponentləri aşağıdakı kimi ümumiləşdirilə bilər:
- Avtonom və nəzarətdən kənar Sİ sistemləri — süni intellektin çox yüksək səviyyəyə çatması və avtonom qərarlar qəbul edə bilməsi nəticəsində, bu sistemlər insanların müəyyən etdiyi etik qaydalardan kənarlaşa bilər. Yüksək səviyyədə avtonom Sİ sistemləri insan nəzarətindən çıxaraq gözlənilməz qərarlar qəbul edə bilər.
- Super-ağıllı Sİ-nin yarada biləcəyi təhdidlər — əgər Sİ insanlardan daha ağıllı səviyyəyə çatarsa, o, öz məqsədlərinə çatmaq üçün insan maraqlarını nəzərə almadan fəaliyyət göstərə bilər. Bu halda Sİ sistemləri öz təkmilləşməsini və varlığını qorumağa çalışa bilər və bu məqsədlərə mane olan insanları aradan qaldırmaqla bağlı qərarlar qəbul edə bilər.
- Yanlış proqramlaşdırma və ya məqsəd uyğunsuzluğu — Sİ-nin proqramlaşdırma mərhələsində səhv məqsəd və ya yanlış şərtlər daxil edilərsə, sistemlər insanlar üçün zərərli nəticələr doğura biləcək qərarlar verə bilər. Məsələn, resurslardan maksimum istifadə etmək məqsədilə proqramlaşdırılan bir Sİ sistemi insan fəaliyyətlərini bu məqsədə zidd görüb ziyan verə bilər.
- Sİ silahlanma yarışları — Sİ-nin inkişafı ilə birlikdə silahlanma yarışı başlaya bilər ki, bu da qlobal təhlükəsizliyə ciddi zərbə vurma potensialına malikdir. Sİ sistemlərindən müharibə və ya terror məqsədləri üçün istifadə olunarsa, qeyri-kontrollu qlobal risklər meydana çıxa bilər.
- Sosial və iqtisadi risklər — Sİ-nin geniş yayılması bir çox iş yerini avtomatlaşdıraraq işsizliyi artıracaq və iqtisadi bərabərsizliklər yarada bilər. Bu sosial qarışıqlıqlara və potensial təhlükələrə səbəb ola bilər, xüsusilə də əgər Sİ-lə zənginləşmiş ölkələr ilə geridə qalmış ölkələr arasında ciddi fərqlər yaranarsa.
Ekzistensial risklərin idarə olunması üçün alimlər, texnoloqlar və hökumətlər arasında daha güclü əməkdaşlıq və müvafiq qanunvericilik mexanizmlərinin inkişafı vacibdir.
Perspektivləri
Süni intellektin (Sİ) ekzistensial riskinin perspektivləri, bu texnologiyanın inkişafının həm potensial təhlükələrini, həm də idarə olunma yollarını əhatə edir. İrəlidəki onilliklərdə Sİ ilə bağlı mümkün perspektivlər aşağıdakı kimi ümumiləşdirilə bilər:
İnkişafın nəzarət altında saxlanması
Sİ sistemlərinin inkişafının erkən mərhələlərdə və daha sonra etik və təhlükəsizlik çərçivələrində idarə olunması vacibdir. Məsələn, süni intellektin öyrənmə və qərar qəbul etmə mexanizmləri üzərində insan nəzarəti saxlamaq üçün mexanizmlər yaradılmalıdır. Sİ-nin etibarlı və təhlükəsiz şəkildə inkişafını təmin etmək üçün beynəlxalq səviyyədə razılaşdırılmış qaydalar və tənzimləmə mexanizmləri hazırlanmalıdır. Bu yanaşma Sİ sistemlərinin məsuliyyətli istifadə olunmasını təmin edə bilər.
Sİ-nin etik və insan mərkəzli olması
Sİ sistemlərinin etik prinsiplərə uyğun dizayn olunması və insan maraqlarına xidmət etməsi üçün müxtəlif institutlar tərəfindən araşdırmalar aparılır. İnsan mərkəzli Sİ inkişafı, Sİ sistemlərinin insanlar üçün faydalı olmasını təmin etməyi hədəfləyir. Bu yolla, SI-nin məqsədlərinin insanlar üçün zərərsiz və faydalı olması təmin edilir.
Sİ təhlükəsizliyi və kibertəhlükəsizlik
Sİ-nin inkişafı ilə yeni kibertəhlükəsizlik çağırışları ortaya çıxır. Avtonom Sİ sistemlərinin kiberhücumlara qarşı davamlı olması və manipulyasiya olunmaması üçün təhlükəsizlik mexanizmləri inkişaf etdirilməlidir. Bu baxımdan, Sİ təhlükəsizliyinə xüsusi diqqət yetirmək lazımdır, çünki nəzarətdən çıxmış Sİ sistemləri böyük zərərlər vura bilər.
Qlobal nizam və Sİ silahlanmasının qarşısının alınması
Sİ-nin güclü hərbi alət olaraq istifadəsi böyük geosiyasi təhdidlər yarada bilər. Bu məqsədlə, Sİ-nin silahlanma sahəsində istifadəsini tənzimləmək üçün qlobal miqyasda beynəlxalq razılaşmalara ehtiyac var. Sİ silahlanmasının təhlükəsini minimuma endirmək üçün ölkələr arası etibarlı və şəffaf əməkdaşlıq önəmlidir.
Sİ və İşçi gücünün yenidən qurulması
Avtomatlaşdırma ilə iş yerlərinin itirilməsi, iqtisadi sistemlərin yenidən düşünülməsini tələb edir. Sİ ilə birlikdə iş bazarında yaranacaq dəyişikliklərə uyğunlaşmaq üçün insanlar arasında texniki bacarıqların artırılmasına yönəlik təhsil proqramlarının gücləndirilməsi vacibdir.Bu yolla, Sİ işsizliyi ilə əlaqəli potensial iqtisadi çətinliklərin qarşısı alına bilər.
Bilinməyən təhlükələrin öyrənilməsi və əvvəldən hazırlanmaq
Süni intellektin inkişafı ilə bağlı bəzi risklər hələ tam başa düşülməyib və bilinməyən risklər ehtimalı yüksəkdir. Buna görə də, Sİ ilə bağlı təhlükələri və təsirləri başa düşmək üçün müxtəlif elmi tədqiqatların və testlərin aparılması önəmlidir. Bu sahədə daha geniş multidissiplinar tədqiqatlar yeni risklər barədə erkən məlumat əldə etməkdə və lazımi hazırlıqlar görməkdə köməkçi ola bilər.
Perspektivlər Sİ-nin irəlidə bəşəriyyətə mümkün təhdidlər yaratmasının qarşısını almağa və onu insanların faydasına yönəltməyə kömək edə bilər.
İstinadlar
- ↑ ; . 26.3: The Ethics and Risks of Developing Artificial Intelligence // . Prentice Hall. 2009. ISBN 978-0-13-604259-4.
- . "Existential risks". Journal of Evolution and Technology. 9 (1). 2002: 1–31.
- Turchin, Alexey; Denkenberger, David. . AI & Society. 35 (1). 2018-05-03: 147–163. doi:. ISSN .
- Bales, Adam; D'Alessandro, William; Kirk-Giannini, Cameron Domenico. "Artificial Intelligence: Arguments for Catastrophic Risk". Philosophy Compass. 19 (2). 2024. doi:.
- . (First). Oxford University Press. 2014. ISBN 978-0-19-967811-2.
- Vynck, Gerrit De. . Washington Post (ingilis). 2023-05-23. ISSN . 2023-06-02 tarixində . İstifadə tarixi: 2023-07-27.
- . www.cbsnews.com (ingilis). 25 March 2023. 2023-04-15 tarixində . İstifadə tarixi: 2023-04-10.
- Metz, Cade. . The New York Times (ingilis). 2023-06-10. ISSN . 2023-11-11 tarixində . İstifadə tarixi: 2023-07-27.
- . yoshuabengio.org (ingilis). 26 May 2023. 2023-05-26 tarixində . İstifadə tarixi: 2023-05-26.
- Turing, Alan. (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 1951. September 26, 2022 tarixində . İstifadə tarixi: 2022-07-22.
- Parkin, Simon. . The Guardian (ingilis). 14 June 2015. 5 February 2018 tarixində . İstifadə tarixi: 5 February 2018.
- Turing, Alan. Can digital computers think? // Automatic Calculating Machines. 2 epizod. 15 May 1951. BBC. .
-
. www.humanetech.com (ingilis). 2023-04-10 tarixində . İstifadə tarixi: 2023-04-10.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- . AI Impacts (ingilis). 2022-08-04. 2022-11-23 tarixində . İstifadə tarixi: 2023-04-10.
- Yudkowsky, Eliezer. (PDF). Global Catastrophic Risks. 2008: 308–345. Bibcode:. 2 March 2013 tarixində (PDF). İstifadə tarixi: 27 August 2018.
- Sunak, Rishi. . Time. June 14, 2023. July 11, 2023 tarixində . İstifadə tarixi: October 31, 2024.
- Roose, Kevin. . The New York Times (ingilis). 2023-05-30. ISSN . 2023-05-31 tarixində . İstifadə tarixi: 2023-06-03.
- Breuer, Hans-Peter. 15 mart 2023 tarixindən Wayback Machine saytında 15 mart 2023 at the Wayback Machine Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383.
- ; Dewey, Daniel; . (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence. 2015: 105–114. arXiv:. Bibcode:. 4 August 2019 tarixində (PDF). İstifadə tarixi: 10 August 2019., cited in . Future of Life Institute. January 2015. 10 August 2019 tarixində . İstifadə tarixi: 2019-08-09.
- Dowd, Maureen. . The Hive (ingilis). April 2017. 26 July 2018 tarixində . İstifadə tarixi: 27 November 2017.
- . www.deepmind.com (ingilis). 18 October 2017. 2023-07-28 tarixində . İstifadə tarixi: 2023-07-28.
Biblioqrafiya
- Clark, Jack. . Bloomberg.com. 2015a. 30 October 2015 tarixində . İstifadə tarixi: 30 October 2015.