Süni intellekt təhlükəsizliyi — süni intellekt (Sİ) sistemləri nəticəsində yarana biləcək qəzaların, sui-istifadənin və ya digər zərərli nəticələrin qarşısının alınması ilə əlaqəli fənlərarası sahə. O, süni intellekt sistemlərini əxlaqlı və faydalı etmək məqsədi daşıyan və , süni intellekt təhlükəsizliyi isə risklərin monitorinqi sistemləri və onların daha etibarlı vəziyyətə gətirilməsi də daxil olmaqla texniki problemləri əhatə edir. Süni intellektlə bağlı araşdırmalardan əlavə, bu, təhlükəsizliyi təşviq edən norma və siyasətlərin işlənib hazırlanmasını da nəzərdə tutur.
Motivasiyalar
Süni intellekt tədqiqatçılarının süni intellekt texnologiyasının yaratdığı riskin şiddəti və əsas mənbələri haqqında çox fərqli fikirləri var, baxmayaraq ki, sorğular ekspertlərin yüksək nəticəli riskləri ciddi qəbul etdiyini göstərir. Süni intellekt tədqiqatçılarının iki sorğusunda, iştirakçılar ortaq fikir olaraq ümumilikdə süni intellektə nikbin baxıb, lakin qabaqcıl süni intellektin "çox pis (məsələn, bəşəriyyətin məhvi)" nəticəsinə 5% ehtimal verib. 2022-ci ildə "Natural Language Processing" (NLP) icmasının sorğusunda iştirakçıların 37%-i süni intellektlə bağlı qərarların "ən azı nüvə müharibəsi qədər pis" fəlakətə səbəb ola biləcəyi fikri ilə tam və qismən razılaşıb. Alimlər kritik sistem uğursuzluqları, qərəzlilik və süni intellektlə işləyən müşahidədən yaranan cari riskləri, texnoloji işsizlikdən, rəqəmsal manipulyasiyadan və silahlaşdırmadan yaranan riskləri və gələcək süni ümumi intellekt (SÜİ) agentlərinə nəzarəti itirməkdən yaranan spekulyativ riskləri müzakirə edirlər.
Bəziləri, 2015-ci ildə onları "Marsa hələ ayaq basmamış əhalinin aşırı çoxluğundan narahat olmaq" ilə müqayisə edən kimi SÜİ ilə bağlı narahatlıqları tənqid etdi. Digər tərəfdən , "insan ixtirasını az qiymətləndirməkdənsə, onu təxmin etmək daha yaxşıdır" deyərək ehtiyatlı olmağa çağırır.
İstinadlar
- ↑ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain. . Journal of Artificial Intelligence Research. 62. 2018-07-31: 729–754. doi:. ISSN . 2023-02-10 tarixində . İstifadə tarixi: 2022-11-28.
- Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan. "Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers". Journal of Artificial Intelligence Research. 71. 2021-05-05. arXiv:. doi:.
- Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace. . AI Impacts. 2022-08-04. 2022-11-23 tarixində . İstifadə tarixi: 2022-11-23.
- Michael, Julian; ; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe; Phang, Jason; Bowman, Samuel R. "What Do NLP Researchers Believe? Results of the NLP Community Metasurvey". Association for Computational Linguistics. 2022-08-26. arXiv:.
- De-Arteaga, Maria. Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University. 2020-05-13.
- Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram. . ACM Computing Surveys (ingilis). 54 (6). 2021: 1–35. arXiv:. doi:. ISSN . 2022-11-23 tarixində . İstifadə tarixi: 2022-11-28.
- . The Global Expansion of AI Surveillance (Hesabat). Carnegie Endowment for International Peace. 2019.
- Barnes, Beth. . Lesswrong. 2021. 2022-11-23 tarixində . İstifadə tarixi: 2022-11-23.
- Brundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas; Filar, Bobby; Anderson, Hyrum; Roff, Heather; Allen, Gregory C; Steinhardt, Jacob; Flynn, Carrick. . Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. 2018-04-30. doi:. 2022-11-23 tarixində . İstifadə tarixi: 2022-11-28.
- Carlsmith, Joseph. "Is Power-Seeking AI an Existential Risk?". 2022-06-16. arXiv:.
- (ingilis). 2023-04-04. 2023-07-15 tarixində . İstifadə tarixi: 2023-07-23.
- Dafoe, Allan. . MIT Technology Review. 2016. 2022-11-28 tarixində . İstifadə tarixi: 2022-11-28.