Butun axtardiqlarinizi tapmaq ucun buraya: DAXIL OLUN
  Mp4 Mp3 Axtar Yukle
  Video Axtar Yukle
  Shekil Axtar Yukle
  Informasiya Melumat Axtar
  Hazir Inshalar Toplusu
  AZERI CHAT + Tanishliq
  1-11 Sinif Derslikler Yukle
  Saglamliq Tibbi Melumat
  Whatsapp Plus Yukle(Yeni)

  • Ana səhifə
  • Təsadüfi
  • Yaxınlıqdakılar
  • Daxil ol
  • Nizamlamalar
İndi ianə et Əgər Vikipediya sizin üçün faydalıdırsa, bu gün ianə edin.
 Kömək
Kitab yaradıcısı ( deaktiv et )
 Bu səhifəni kitabınıza əlavə edin Kitabı göstər (0 səhifə) Səhifə təklif edin

Süni intellekt təhlükəsizliyi

  • Məqalə
  • Müzakirə

Süni intellekt təhlükəsizliyi — süni intellekt (Sİ) sistemləri nəticəsində yarana biləcək qəzaların, sui-istifadənin və ya digər zərərli nəticələrin qarşısının alınması ilə əlaqəli fənlərarası sahə. O, süni intellekt sistemlərini əxlaqlı və faydalı etmək məqsədi daşıyan maşın etikasını və süni intellektin uyğunlaşdırılmasını, süni intellekt təhlükəsizliyi isə risklərin monitorinqi sistemləri və onların daha etibarlı vəziyyətə gətirilməsi də daxil olmaqla texniki problemləri əhatə edir. Süni intellektlə bağlı araşdırmalardan əlavə, bu, təhlükəsizliyi təşviq edən norma və siyasətlərin işlənib hazırlanmasını da nəzərdə tutur.

Motivasiyalar

Süni intellekt tədqiqatçılarının süni intellekt texnologiyasının yaratdığı riskin şiddəti və əsas mənbələri haqqında çox fərqli fikirləri var,[1][2][3] baxmayaraq ki, sorğular ekspertlərin yüksək nəticəli riskləri ciddi qəbul etdiyini göstərir. Süni intellekt tədqiqatçılarının iki sorğusunda, iştirakçılar ortaq fikir olaraq ümumilikdə süni intellektə nikbin baxıb, lakin qabaqcıl süni intellektin "çox pis (məsələn, bəşəriyyətin məhvi)" nəticəsinə 5% ehtimal verib.[1] 2022-ci ildə "Natural Language Processing" (NLP) icmasının sorğusunda iştirakçıların 37%-i süni intellektlə bağlı qərarların "ən azı nüvə müharibəsi qədər pis" fəlakətə səbəb ola biləcəyi fikri ilə tam və qismən razılaşıb.[4] Alimlər kritik sistem uğursuzluqları,[5] qərəzlilik[6] və süni intellektlə işləyən müşahidədən yaranan cari riskləri,[7] texnoloji işsizlikdən, rəqəmsal manipulyasiyadan[8] və silahlaşdırmadan[9] yaranan riskləri və gələcək süni ümumi intellekt (SÜİ) agentlərinə nəzarəti itirməkdən yaranan spekulyativ riskləri müzakirə edirlər.[10]

Bəziləri, 2015-ci ildə onları "Marsa hələ ayaq basmamış əhalinin aşırı çoxluğundan narahat olmaq" ilə müqayisə edən Endryu In kimi SÜİ ilə bağlı narahatlıqları tənqid etdi.[11] Digər tərəfdən Stüart Rassel, "insan ixtirasını az qiymətləndirməkdənsə, onu təxmin etmək daha yaxşıdır" deyərək ehtiyatlı olmağa çağırır.[12]

İstinadlar

  1. ↑ 1 2 Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain. "Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts". Journal of Artificial Intelligence Research. 62. 31 iyul 2018: 729–754. doi:10.1613/jair.1.11222. ISSN 1076-9757. 10 fevral 2023 tarixində arxivləşdirilib. İstifadə tarixi: 28 noyabr 2022.
  2. ↑ Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan. "Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers". Journal of Artificial Intelligence Research. 71. 5 may 2021. arXiv:2105.02117. doi:10.1613/jair.1.12895.
  3. ↑ Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace. "2022 Expert Survey on Progress in AI". AI Impacts. 4 avqust 2022. 23 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 23 noyabr 2022.
  4. ↑ Michael, Julian; Holtzman, Ari; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe; Phang, Jason; Bowman, Samuel R. "What Do NLP Researchers Believe? Results of the NLP Community Metasurvey". Association for Computational Linguistics. 26 avqust 2022. arXiv:2208.12852.
  5. ↑ De-Arteaga, Maria. Machine Learning in High-Stakes Settings: Risks and Opportunities (PhD). Carnegie Mellon University. 13 may 2020.
  6. ↑ Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram. "A Survey on Bias and Fairness in Machine Learning". ACM Computing Surveys (ingilis). 54 (6). 2021: 1–35. arXiv:1908.09635. doi:10.1145/3457607. ISSN 0360-0300. 23 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 28 noyabr 2022.
  7. ↑ Feldstein, Steven. The Global Expansion of AI Surveillance (Hesabat). Carnegie Endowment for International Peace. 2019.
  8. ↑ Barnes, Beth. "Risks from AI persuasion". Lesswrong. 2021. 23 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 23 noyabr 2022.
  9. ↑ Brundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas; Filar, Bobby; Anderson, Hyrum; Roff, Heather; Allen, Gregory C; Steinhardt, Jacob; Flynn, Carrick. "The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation". Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. 30 aprel 2018. doi:10.17863/cam.22520. 23 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 28 noyabr 2022.
  10. ↑ Carlsmith, Joseph. "Is Power-Seeking AI an Existential Risk?". 16 iyun 2022. arXiv:2206.13353.
  11. ↑ "AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com" (ingilis). 4 aprel 2023. 15 iyul 2023 tarixində arxivləşdirilib. İstifadə tarixi: 23 iyul 2023.
  12. ↑ Dafoe, Allan. "Yes, We Are Worried About the Existential Risk of Artificial Intelligence". MIT Technology Review. 2016. 28 noyabr 2022 tarixində arxivləşdirilib. İstifadə tarixi: 28 noyabr 2022.

  • Unsolved Problems in ML Safety
  • On the Opportunities and Risks of Foundation Models
  • An Overview of Catastrophic AI Risks
  • AI Accidents: An Emerging Threat
  • Engineering a Safer World
Mənbə — "https://az.wikipedia.org/w/index.php?title=Süni_intellekt_təhlükəsizliyi&oldid=8306358"
Informasiya Melumat Axtar