Süni intellektin hallüsinasiyası — Vikipediya

Süni intellektin hallüsinasiyası

Süni intellektin hallüsinasiyasısüni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab.[1][2][3]

ChatGPT, səhv URL əsasında mövcud olmayan New York Times məqaləsini izah edir.
ChatGPT 3.5 ingilis dilindən süni Lojban dilinə "tərcümə" edərək (yeni söhbətdə) yenidən Yaradılış 1:6-dan (RSV) sürreal artefakt yaradır.

Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər.[4] Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə bənzədilərək "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir.[3] Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır.[5]

Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı.[6] İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər.[7] 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya "görmə" ehtimalı 27%-dir.[8][9]

Analiz

Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər. Bəzi tədqiqatçılar hesab edirlər ki, insanlar tərəfindən obyektin aşkarlanması zamanı "hallüsinasiyalar" kimi təsnif edilən bəzi "yanlış" cavablar əslində təlim məlumatları ilə əsaslandırıla bilər və ya hətta süni intellekt insanların görə bilmədiyi "düzgün" cavabı verir.

Məsələn, insana adi bir it kimi görünən obrazın süni intellekt tərəfindən əslində (real şəkillərdə) yalnız pişiyə baxarkən görünən kiçik modellər ehtiva etdiyi görülə bilər. Süni intellekt insanların həssas olmadığı real dünyadakı vizual nümunələri oxuyur.[10] Ancaq bu fikirlər digər tədqiqatçılar tərəfindən qəbul edilməyib.[11] Məsələn, modellərin səthi statistikaya qarşı qərəzli ola biləcəyi və bunun rəqib təlimin real dünya ssenarilərində möhkəm olmamasına səbəb ola biləcəyi bildirildi.[11]

İstinadlar

  1. "Definition of HALLUCINATION". www.merriam-webster.com (ingilis). 2023-10-21. 2023-10-07 tarixində arxivləşdirilib. İstifadə tarixi: 2023-10-29.
  2. Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald. On Faithfulness and Factuality in Abstractive Summarization // Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020). 2020. arXiv:2005.00661. 2023-09-26 tarixində arxivləşdirilib. İstifadə tarixi: 2023-09-26.
  3. 1 2 Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang; Madotto, Andrea; Fung, Pascale. "Survey of Hallucination in Natural Language Generation" (pdf). ACM Computing Surveys. Association for Computing Machinery. 55 (12). November 2022: 1–38. arXiv:2202.03629. doi:10.1145/3571730. 26 March 2023 tarixində arxivləşdirilib. İstifadə tarixi: 15 January 2023.
  4. Lin, Connie. "How to easily trick OpenAI's genius new ChatGPT". Fast Company. 5 December 2022. 29 March 2023 tarixində arxivləşdirilib. İstifadə tarixi: 6 January 2023.
  5. Edwards, Benj. "Why ChatGPT and Bing Chat are so good at making things up". Ars Technica (ingilis). 6 April 2023. 11 June 2023 tarixində arxivləşdirilib. İstifadə tarixi: 11 June 2023.
  6. Zhuo, Terry Yue; Huang, Yujin; Chen, Chunyang; Xing, Zhenchang. "Exploring AI Ethics of ChatGPT: A Diagnostic Analysis". 2023. arXiv:2301.12867 [cs.CL].
  7. Seife, Charles. "The Alarming Deceptions at the Heart of an Astounding New Chatbot". Slate. 13 December 2022. 26 March 2023 tarixində arxivləşdirilib. İstifadə tarixi: 16 February 2023.
  8. Leswing, Kif. "Microsoft's Bing A.I. made several factual errors in last week's launch demo". CNBC (ingilis). 14 February 2023. 16 February 2023 tarixində arxivləşdirilib. İstifadə tarixi: 16 February 2023.
  9. "Chatbots May 'Hallucinate' More Often Than Many Realize". The New York Times. 2023-12-07 tarixində arxivləşdirilib. İstifadə tarixi: 2023-12-07.
  10. Matsakis, Louise. "Artificial Intelligence May Not 'Hallucinate' After All". Wired. 8 May 2019. 26 March 2023 tarixində arxivləşdirilib. İstifadə tarixi: 29 December 2022.
  11. 1 2 Gilmer, Justin; Hendrycks, Dan. "A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness'". Distill. 4 (8). 2019-08-06. doi:10.23915/distill.00019.1. 2023-01-15 tarixində arxivləşdirilib. İstifadə tarixi: 2023-01-24.

Əlavə ədəbiyyat


Informasiya Melumat Axtar

Anarim.Az

Sayt Rehberliyi ile Elaqe

Saytdan Istifade Qaydalari

Anarim.Az 2004-2023