Süni intellekt etikası — robotlar və digər süni şəkildə ağıllı canlılar üçün xarakterik olan texnologiya etikasının bir hissəsi. Süni əqli varlıqların dizaynı, qurulması, istifadəsi və müalicəsi, süni əxlaqi agentlərin (IMA) əxlaqi davranışına aid maşın etikası məsələlərini həll edən ümumiyyətlə roboetika bölünür.

Robotların etikası

"Robot etikası" termini (və ya "roboetika") insanların robotları və digər süni şəkildə yaradılan ağıllı varlıqları necə tərtib etməsi, qurması, istifadəsi və idarə etmələrinin mənəvi məsələlərinə aiddir. Süni şəkildə yaradılan ağıllı varlıqların insanların ziyanına və mənafeyinə necə istifadə olunacağından bəhs edir.

Robot hüquqları

"Robot Hüquqları", insanların maşınları qarşısında insan hüquqları və ya heyvanlara bənzər bir mənəvi öhdəliklərə sahib olmaları lazım olan bir anlayışdır. Mövcud olmaq və öz missiyasını yerinə yetirmək hüququ kimi robotların hüquqlarının insan hüquqlarının cəmiyyət qarşısında insan öhdəlikləri ilə əlaqələndirilməsi ilə bir insana xidmət etmək vəzifəsi ilə əlaqələndirilə biləcəyinə dair bir təklif var. Bunlara həyat və azadlıq hüququ, fikir və ifadə azadlığı, habelə qanun qarşısında bərabərlik də daxil ola bilər. Bu məsələ Gələcək İnstitutu İngiltərə Ticarət və Sənaye Departamenti tərəfindən həll edilmişdir.

Mütəxəssislərin yaxın gələcəkdə və ya yalnız uzaq gələcəkdə konkret və detallı qanunların tələb olunacağına dair ümumi bir fikri yoxdur. Qlenn MakGi, kifayət qədər humanoid robotların 2020-ci ilə qədər görünə biləcəyini bildirir. bunun 2029-cu ilə qədər olacağına inanır. 2007-ci ildə başqa bir alim qrupu, hər hansı bir yetərincə inkişaf etmiş bir sistemin yaranmasından ən azı 50 il keçməsini təklif etdi.

2003-cü il Lobner Mükafat Yarışması Qaydaları robotların öz hüquqlarına sahib olma ehtimalını təmin etdi.

2017-ci ilin oktyabr ayında android Sofiya Səudiyyə Ərəbistanında "fəxri" vətəndaşlıq aldı, baxmayaraq ki, bəzi müşahidəçilər bunu mənalı hüquqi tanınma deyil, reklam hərəkəti hesab etdilər. Bəziləri bu jestə insan hüquqlarının və qanunun aliliyinin açıq təhqir olunması kimi baxdılar.

fəlsəfəsi, bütün insanlara, xüsusən də insanlara və əksər heyvanlara mənəvi mülahizələr hüququ verir. Süni və ya yad ağıllı varlıqlar həssaslığının dəlillərini göstərirlərsə, bu fəlsəfə hesab edir ki, onlara şəfqət və hüquqlar göstərilməlidir.

, tələb edən bir mühitin yaradılmasının qarşısı alınacağını və özü də etik olmayan, bunun həm agentlərinə, həm də insan cəmiyyətinə bir yük olacağını müdafiə etdi.

İnsan ləyaqətinə təhlükə

Cozef Vayzenbaum 1976-cı ildə süni intellekt texnologiyasından hörmət və qayğı tələb edən vəzifələrdə insanları əvəz etmək üçün istifadə edilməməsi lazım olduğunu iddia etdi:

  • İşçilərin müştəri dəstəyi (Sİ texnologiyası bu gün telefon sistemlərində interaktiv səs cavabları üçün istifadə olunur)
  • Terapevt (1970-ci illərdə Kennet Kolbi tərəfindən təklif olundu)
  • Yaşlılar üçün tibb bacısı (Pamela MakKordakın beşinci nəsil kitabında söylədiyi kimi)
  • Əsgər
  • Hakim
  • Polis işçisi

Vayzenbaum izah edir ki, bu vəzifələrdə olan insanlardan həqiqi bir mərhəmət hissi tələb edirik. Maşınlar onları əvəz etsə, özgələşəcəyik, köhnələcəyik və məyus olacağıq. Süni intellekt, bu şəkildə istifadə edilərsə, insan ləyaqətinə təhlükə yaradır. Vayzenbaum, maşınların bu mövqeləri tutma ehtimalını nəzərdən keçirməyimizi, özümüzü kompüter kimi düşünməyimizdən irəli gələn "insan ruhunun atrofiyasını" yaşadığımızı iddia edir.

Pamela MakKordak, qadınlar və azlıqlar haqqında danışarkən, "Mən qərəzsiz bir kompüterlə bir şans istərdim" deyərək, heç bir şəxsi maraqları olmayan avtomatik hakimlər və polislərə üstünlük verəcəyimiz şərtlərə işarə etdi. Bununla birlikdə, Kaplan və Henleyn, süni intellekt sistemlərinin, onları öyrətmək üçün istifadə edilən məlumatlara görə ağıllı olduqlarını vurğulayırlar, çünki bunlar əslində əyri yaxınlaşan maşınlardan başqa bir şey deyildir: dəstək üçün süni intellektdən istifadə Keçmiş qərarlar müəyyən qruplara qarşı qərəzli olduqda məhkəmə qərarları çox problemli ola bilər, çünki bu qərarlar rəsmiləşdirilərək gücləndirilir, bu da onları müəyyənləşdirməyi və onlarla əlaqəni daha da çətinləşdirir. Sİ qurucusu Con Makkarti, Vayzenbaumun tənqidinin mənəvi cəhətlərinə etiraz edir. O yazır: "Mənəviyyat əxlaqsız və qeyri-müəyyən olduqda, avtoritar zorakılığı təşviq edir."

yazır ki, "insan ləyaqəti varlığın təbiəti ilə bağlı cahilliyimizi aradan qaldırmağa çalışmağımızı tələb edir. Bunun üçün Sİ tələb olunur."

İstinadlar

  1. Veruggio, Gianmarco. The Roboethics Roadmap. Scuola di Robotica. 2007.
  2. Woody Evans. Posthuman Rights: Dimensions of Transhuman Worlds. 12 (Teknokultura). 2015.
  3. Yurii Sheliazhenko. . European journal of law and political sciences. 2017.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. . BBC News. 2006-12-21. 2019-10-15 tarixində . İstifadə tarixi: 2010-01-03.
  6. Henderson, Mark. . The Times Online. The Times of London. 2007-04-24. 2008-05-17 tarixində . İstifadə tarixi: 2010-05-02.
  7. McGee, Glenn. . The Scientist. 2020-09-06 tarixində . İstifadə tarixi: 2020-06-29.
  8. . The Singularity is Near. . 2005. ISBN 978-0-670-03384-3.
  9. , Independent Newspaper,
  10. . 2017-10-28 tarixində . İstifadə tarixi: 2020-06-29.
  11. Vincent, James. . The Verge. 2017-10-30. 2019-08-03 tarixində . İstifadə tarixi: 2020-06-29.
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues. Amsterdam: John Benjamins Pub. Co. 2010. ISBN 978-9027249944.
  13. Joseph Weizenbaum, quoted in Joseph Weizenbaum, quoted in McCorduck, 2004, pp. 356, 374–376
  14. . 2018-11-21 tarixində . İstifadə tarixi: 2019-10-10.
  15. Hibbard, Bill (2014): .

Xarici keçidlər

  • . "Dörd aparıcı tədqiqatçı ağıllı maşınlardan sosial riskləri azaltmaq üçün problemlərini və həll yollarını bölüşür.". Nature , 521, 415–418 (28 may 2015 il), doi: 10.1038 / 521415a.
  • 2018-03-22 at the Wayback Machine bəşəriyyətin süni intellekt qorxusundan bəhs edən məqalə.
  • от


Mənbə — ""

Informasiya Melumat Axtar

Anarim.Az

Sayt Rehberliyi ile Elaqe

Saytdan Istifade Qaydalari

Anarim.Az 2004-2023