Butun axtardiqlarinizi tapmaq ucun buraya: DAXIL OLUN
  Mp4 Mp3 Axtar Yukle
  Video Axtar Yukle
  Shekil Axtar Yukle
  Informasiya Melumat Axtar
  Hazir Inshalar Toplusu
  AZERI CHAT + Tanishliq
  1-11 Sinif Derslikler Yukle
  Saglamliq Tibbi Melumat
  Whatsapp Plus Yukle(Yeni)

  • Ana səhifə
  • Təsadüfi
  • Yaxınlıqdakılar
  • Daxil ol
  • Nizamlamalar
İndi ianə et Əgər Vikipediya sizin üçün faydalıdırsa, bu gün ianə edin.
 Kömək
Kitab yaradıcısı ( deaktiv et )
 Bu səhifəni kitabınıza əlavə edin Kitabı göstər (0 səhifə) Səhifə təklif edin

Robot etikası

  • Məqalə
  • Müzakirə

Robot etikası (və ya roboetika) — robotların dizaynı, hazırlanması, istifadəsi və onlarla rəftar zamanı yaranan etik məsələləri öyrənən tətbiqi etika sahəsidir. Bu sahə, süni intellekt və robototexnika texnologiyalarının cəmiyyətə, insan həyatına və ətraf mühitə təsirlərini tənzimləmək üçün mənəvi prinsiplər və qaydalar hazırlamağı hədəfləyir.[1] Robot etikası həm robotların insanlara zərər verməməsini təmin etməyə, həm də insanların robotlarla və bir-biri ilə texnologiya vasitəsilə necə davranmalı olduğunu müəyyən etməyə çalışır.[2]

Bu sahə təhlükəsizlik, məsuliyyət, muxtariyyət, məxfilik, insan ləyaqəti və robotlarla emosional bağların yaranması kimi geniş spektrli mövzuları əhatə edir.

Mündəricat

  • 1 Əsas etik məsələlər
    • 1.1 Təhlükəsizlik, səhvlər və məsuliyyət
    • 1.2 Muxtariyyət və qərarvermə
    • 1.3 və məlumatların qorunması
    • 1.4 İnsan-robot qarşılıqlı əlaqəsi
    • 1.5 Sosial və iqtisadi təsirlər
  • 2 Sahələr üzrə tətbiqi və etik çağırışlar
    • 2.1 Səhiyyə və qulluq robotları
      • 2.1.1 Yaşlılara və xüsusi qayğıya ehtiyacı olanlara qulluq
      • 2.1.2 Cərrahiyyə robotları
    • 2.2 Hərbi robotlar
    • 2.3 Xidmət və sosial robotlar
    • 2.4 Heyvan-robot qarşılıqlı əlaqəsi
  • 3 Etik dizayn və tənzimləmə yanaşmaları
    • 3.1 Dəyərlərə Həssas Dizayn (Value-Sensitive Design)
    • 3.2 Məsuliyyətli Tədqiqat və İnnovasiya (Responsible Research and Innovation)
    • 3.3 Etik Çərçivələr və İştirakçılıq
  • 4 Həmçinin bax
  • 5 İstinadlar
  • 6

Əsas etik məsələlər

Robotların cəmiyyətə inteqrasiyası bir sıra fundamental etik suallar doğurur. Bu suallar əsasən aşağıdakı kateqoriyalarda qruplaşdırılır:

Təhlükəsizlik, səhvlər və məsuliyyət

Robotların fəaliyyəti zamanı baş verə biləcək səhvlər və ya nasazlıqlar ciddi fiziki, psixoloji və ya maddi zərərə səbəb ola bilər. Bu kontekstdə əsas sual, zərər baş verdikdə məsuliyyətin kimin daşımasıdır: robotun sahibi, istehsalçısı, proqramçısı, yoxsa robotun özü? Xüsusilə memarlıq, mühəndislik və inşaat (AEC) kimi yüksək riskli sənayelərdə etibarlılıq və təhlükəsizlik əsas etik tələblərdir.[3] Cərrahiyyə robotlarının tətbiqində isə "zərər verməmək" (nonmaleficence) prinsipi əsas götürülərək, cərrahi təhlükəsizlik standartlarının robota uyğunlaşdırılması üçün xüsusi etik prinsiplər təklif edilmişdir.[4] Uzunmüddətli qulluqda istifadə olunan robotlarda təhlükəsizlik və məsuliyyət məsələləri, onların etik tətbiqinin əsas maneələrindən sayılır.[5]

Muxtariyyət və qərarvermə

Robotların muxtariyyət səviyyəsi artdıqca, onların müstəqil qərar vermə qabiliyyəti etik dilemmalar yaradır. Bu, xüsusilə hərbi sahədə aktualdır. "Öldürücü avtonom silah sistemləri" (LAWS) və ya "qatil robotlar" adlanan hərbi robotların insan müdaxiləsi olmadan ölümcül qərarlar verməsi, beynəlxalq hüquq və insanlıq əleyhinə cinayətlər kontekstində ciddi müzakirələrə səbəb olmuş və BMT səviyyəsində müzakirə edilmişdir.[6] Döyüş robotlarının dizaynında mənəvi və hüquqi aspektlərin hələ spesifikasiya mərhələsindən nəzərə alınması və robotun muxtariyyət səviyyəsinə uyğun məhdudiyyətlərin tətbiqi təklif edilir.[7] Sürücüsüz avtomobillər sahəsində isə qəza anında kimin həyatının xilas edilməli olduğu ("tramvay problemi"nin müasir versiyası) kimi mürəkkəb etik məsələlər mövcuddur. Bəzi tədqiqatçılar iddia edir ki, avtonom nəqliyyat vasitələri insan sürücülərdən daha təhlükəsiz olduqda, insanların avtomobil idarə etməsi qeyri-etik hesab olunmalıdır.[8]

və məlumatların qorunması

Sosial və xidmət robotları fəaliyyət göstərdikləri mühitdən (ev, xəstəxana, otel) davamlı olaraq məlumat toplayır. Bu məlumatlara səs yazıları, video görüntülər və şəxsi vərdişlər daxil ola bilər. Bu məlumatların kim tərəfindən və necə istifadə ediləcəyi, kiminlə paylaşılacağı və kibertəhlükəsizliyi məxfiliklə bağlı ciddi narahatlıqlar yaradır.[9] Xüsusilə səhiyyə və sosial qulluq robotlarında məlumatların sui-istifadəsi və razılığın pozulması kimi risklər mövcuddur.[10]

İnsan-robot qarşılıqlı əlaqəsi

İnsanların robotlarla, xüsusən də insanabənzər və ya heyvanabənzər robotlarla emosional bağlar qurması mümkündür. Bu, bir sıra etik suallar doğurur:

  • Aldatma və saxta gözləntilər: Sosial robotların duyğu və empatiya nümayiş etdirməsi, istifadəçilərdə onların həqiqətən hiss edə bildiyi təəssüratını yarada bilər. Bu, xüsusilə həssas qruplar (uşaqlar, yaşlılar) üçün emosional istismara və ya aldanmaya səbəb ola bilər.
  • Təhqir və sui-istifadə: Tədqiqatlar göstərir ki, insanlar bəzən kompüter və robotlara qarşı təhqiramiz davranışlar sərgiləyir. İnsanabənzər robotlara qarşı bu cür davranışların normalaşması, insanların bir-birinə qarşı zorakılığını təşviq edə bilərmi? Bu, dizaynerlərin robotları bu cür davranışlardan qorumaq üçün tədbirlər görməsinin etik olub-olmadığı sualını gündəmə gətirir.[11] Bəzi filosoflar isə iddia edir ki, 21-ci əsrin əvvəllərində robotlar sadəcə maşınlardır və onlara etik status vermək üçün hələ tezdir, bu səbəbdən əsas diqqət insanların bir-birinə olan münasibətinə yönəlməlidir.[12]
  • Uşaq-robot əlaqəsi: Təhsil robotları ilə oynayan uşaqların onlara qayğı göstərməsi, "texnoloji qayğı etikası" (technological ethic of care) anlayışını formalaşdıra bilər. Bu, uşaqların təkcə hesablama təfəkkürünü deyil, həm də texnologiyaya qarşı məsuliyyət hissini inkişaf etdirməsinə kömək edir.[13]

Sosial və iqtisadi təsirlər

Robotların geniş tətbiqi iş yerlərinin avtomatlaşdırılması və bunun nəticəsində yaranan işsizlik kimi ciddi sosial-iqtisadi problemlərə yol aça bilər.[3][10] Həmçinin, bahalı robot texnologiyalarına yalnız imkanlı şəxslərin və ya ölkələrin çıxışı olması, mövcud sosial bərabərsizlikləri daha da dərinləşdirə bilər ("rəqəmsal uçurum"). Səhiyyə və qulluq xidmətlərinin robotlaşdırılması, insan təmasını azaldaraq xidmətin "insanlıqdan kənarlaşdırılması" (dehumanization) riskini yaradır.[10]

Sahələr üzrə tətbiqi və etik çağırışlar

Səhiyyə və qulluq robotları

Səhiyyə, robot etikasının ən çox müzakirə olunduğu sahələrdən biridir.[2] Bu robotlar cərrahiyyədən reabilitasiyaya, yaşlılara qulluqdan autizmli uşaqların terapiyasına qədər geniş bir sahədə istifadə olunur.

Yaşlılara və xüsusi qayğıya ehtiyacı olanlara qulluq

Yaşlanan cəmiyyətlərdə qulluq robotlarına tələbat artır. Bu robotlar yaşlıların müstəqilliyini dəstəkləyə, təhlükəsizliyini təmin edə və təkliyinə çarə ola bilər. Lakin onların istifadəsi bir sıra etik mübahisələrə səbəb olur. Aparılan tədqiqatlar göstərir ki, bu sahədə əsas etik arqumentlər deontoloji, prinsipalist, obyektiv-siyahı və qayğı-etikası kimi fərqli yanaşmalara əsaslanır.[14] Əsas etik gərginliklər arasında muxtariyyətin qorunması, insan təmasının itirilməsi, obyektivləşdirmə, aldatma və sosial ədalət məsələləri dayanır.[5] Çin mədəniyyəti kontekstində, qulluq robotlarının ənənəvi "övladlıq borcu etikası" (filial piety ethics) ilə necə uzlaşdığı araşdırılır. Nəticə olaraq, robotların övladları əvəz etmədiyi, ancaq onlara qulluq vəzifələrini yerinə yetirməkdə kömək edən bir vasitə olduğu qənaətinə gəlinir.[15] Qulluq robotlarının qəbulunda etik məsələlərə yanaşma, istifadəçilərin texnologiyaya olan inamına və ondan istifadə niyyətinə birbaşa təsir edir.[16]

Cərrahiyyə robotları

Robotik cərrahiyyə minimal invaziv əməliyyatları mümkün edərək tibbdə inqilab etmişdir. Lakin bu texnologiya yeni etik və hüquqi çərçivələr tələb edir. Tibb bacılarının rolu bu prosesdə xüsusilə vacibdir, çünki onlar bütün cərrahi proses boyunca xəstənin təhlükəsizliyini, məxfiliyini və hüquqlarını qorumaq üçün əsas məsuliyyət daşıyırlar. Təhlükəsizliyin təmin edilməsi üçün cərrahların və bütün komandanın robot texnologiyası ilə bağlı adekvat təlim keçməsi əsas etik tələblərdən biridir.[4]

Hərbi robotlar

Hərbi robotların muxtariyyət səviyyəsinin artması, onların müharibənin aparılması qaydalarını dəyişdirməsi potensialı ilə bağlı ciddi narahatlıqlar yaradır. Əsas müzakirə, robotların hədəfləri müstəqil şəkildə seçib məhv etməsinə icazə verilib-verilməməsi ətrafında gedir.[6] Bu məsələnin həlli üçün döyüş robotlarının dizaynına hələ erkən mərhələdən başlayaraq etik və hüquqi məhdudiyyətlərin daxil edilməsi təklif olunur. Bu yanaşma, robotun funksiyalarının və strukturunun əvvəldən beynəlxalq hüquq normalarına uyğunlaşdırılmasını nəzərdə tutur.[7]

Xidmət və sosial robotlar

İctimai xidmətlərdə, otellərdə və pərakəndə satışda istifadə olunan robotlar birbaşa insanlarla təmasda olur. Otelçilikdə xidmət robotlarının istifadəsi ilə bağlı müştərilərin qəbul etdiyi etik riskləri ölçmək üçün xüsusi bir şkala (ERoSeR) hazırlanmışdır. Bu şkala razılığın pozulması, dehumanizasiya, məlumatların sui-istifadəsi, ayrı-seçkilik və iş yerlərinin itirilməsi kimi səkkiz ölçünü əhatə edir.[10] İctimai xidmət robotları ilə bağlı aparılan bir təcrübə göstərmişdir ki, insanlar robotun davranışının etik olub-olmamasını onun insanabənzər görünüşünə görə deyil, birbaşa onun hərəkətlərinə görə qiymətləndirirlər. Yəni, etik davranış sərgiləyən robotlar daha çox insan kimi qəbul edilir.[17] Süni intellektli yoldaş robotlarla (AI companion) intim münasibətlərin simulyasiyası isə gender performansı və sosial mübadilə ilə bağlı mürəkkəb etik məsələlər yaradır.[18]

Heyvan-robot qarşılıqlı əlaqəsi

Biorobotexnika sahəsində heyvanların davranışlarını təqlid edən robotların real heyvanlarla qarşılıqlı əlaqəsi yeni bir meta-etik problem yaradır: heyvanları onların bir növdaşı olduğuna inandıraraq aldatmaq etikdirmi? Bu suala cavab axtaran tədqiqatçılar, problemin heyvanın robotla qarşılıqlı anlaşma və iştirak dərəcəsində olduğunu iddia edirlər. Yəni, əgər heyvan robotla "dil oyunu"na fəal şəkildə qoşulursa, bu əlaqə etik cəhətdən məqbul sayıla bilər.[19]

Etik dizayn və tənzimləmə yanaşmaları

Robotların yaratdığı etik problemləri həll etmək üçün müxtəlif metodoloji yanaşmalar təklif olunur.

Dəyərlərə Həssas Dizayn (Value-Sensitive Design)

Bu yanaşma, texnologiyanın dizayn prosesinə başlanğıcdan etibarən insan dəyərlərini (məxfilik, ədalət, muxtariyyət kimi) inteqrasiya etməyi hədəfləyir. Kənd təsərrüfatı robotları üzərində aparılan bir VSD tətbiqi göstərmişdir ki, bu yanaşma texniki tədqiqatçıların perspektivini genişləndirsə də, ziddiyyətli dəyərlərin necə həll ediləcəyi və dəyərlərin zaman və kontekstdən asılılığı kimi məhdudiyyətləri vardır.[20]

Məsuliyyətli Tədqiqat və İnnovasiya (Responsible Research and Innovation)

Bu yanaşma, innovasiya prosesinə bütün maraqlı tərəflərin (tədqiqatçılar, istifadəçilər, siyasətçilər, ictimaiyyət) cəlb edilməsini və etik mülahizələrin tədqiqatın bütün mərhələlərində "daxildən" nəzərə alınmasını təşviq edir. Bu, dialoq və iştirakçılıq vasitəsilə texnologiyanın cəmiyyətin ehtiyaclarına və dəyərlərinə daha uyğun olmasını təmin etməyə çalışır.[2]

Etik Çərçivələr və İştirakçılıq

Sənayedə insan-robot əməkdaşlığı üçün Avropalı etika ekspertlərinin iştirakı ilə hazırlanmış bir etik çərçivə, insan mərkəzli bir yanaşma təklif edir. Bu çərçivə təkcə iş yerindəki dinamikaları deyil, həm də təşkilati və cəmiyyət səviyyəsində idarəetməni əhatə edir.[21] Yaşlılara qulluq sahəsində isə etik müzakirələrdə bütün maraqlı tərəflərin, xüsusilə də qulluq alanların səsini təmin edən "demokratik məkanlar"ın yaradılması təklif edilir.[14] Yaponiyada olduğu kimi, informasiya texnologiyaları ilə bağlı etik qaydaların hazırlanmasında və təhsilində mütəxəssis olmayan vətəndaşların da erkən mərhələdən iştirakının vacibliyi vurğulanır.[22] Etik prinsiplərin gündəlik təcrübədə necə təzahür etdiyini anlamaq üçün təcrübəyə əsaslanan (experiential) etik yanaşmaların inkişaf etdirilməsi də gələcək üçün vacib istiqamətlərdən biridir.[23]

Həmçinin bax

  • Etika
  • Süni intellekt etikası

İstinadlar

  1. ↑ Lin, P.; Abney, K.; Bekey, G. "Robot ethics: Mapping the issues for a mechanized world". Artificial Intelligence. 175 (5–6). 2011: 942–949. doi:10.1016/j.artint.2010.11.026.
  2. ↑ 1 2 3 Stahl, B. C.; Coeckelbergh, M. "Ethics of healthcare robotics: Towards responsible research and innovation". Robotics and Autonomous Systems. 86. 2016: 152–161. doi:10.1016/j.robot.2016.08.018.
  3. ↑ 1 2 Liang, C.-J.; Le, T.-H.; Ham, Y.; Mantha, B. R.K.; Cheng, M. H.; Lin, J. J. "Ethics of artificial intelligence and robotics in the architecture, engineering, and construction industry". Automation in Construction. 162. 2024: 105369. doi:10.1016/j.autcon.2024.105369.
  4. ↑ 1 2 Larson, J. A.; Johnson, M. H.; Bhayani, S. B. "Application of Surgical Safety Standards to Robotic Surgery: Five Principles of Ethics for Nonmaleficence". Journal of the American College of Surgeons. 218 (2). 2014: 290–293. doi:10.1016/j.jamcollsurg.2013.11.006.
  5. ↑ 1 2 Tan, S. Y.; Taeihagh, A.; Tripathi, A. "Tensions and antagonistic interactions of risks and ethics of using robotics and autonomous systems in long-term care". Technological Forecasting and Social Change. 167. 2021: 120686. doi:10.1016/j.techfore.2021.120686.
  6. ↑ 1 2 "UN discusses threat and ethics of killer robots". New Scientist. 222 (2969): 7. 2014. doi:10.1016/S0262-4079(14)60939-8.
  7. ↑ 1 2 Kowalczuk, Z.; Zieliński, C. "Ethical and legal aspects of using combat robots". IFAC-PapersOnLine. 59 (3). 2025: 145–150. doi:10.1016/j.ifacol.2025.07.025.
  8. ↑ Sparrow, R.; Howard, M. "When human beings are like drunk robots: Driverless vehicles, ethics, and the future of transport". Transportation Research Part C: Emerging Technologies. 80. 2017: 206–215. doi:10.1016/j.trc.2017.04.014.
  9. ↑ Heirati, N.; Pitardi, V.; Wirtz, J.; Jayawardhena, C.; Kunz, W.; Paluch, S. "Unintended consequences of service robots – Recent progress and future research directions". Journal of Business Research. 194. 2025: 115366. doi:10.1016/j.jbusres.2025.115366.
  10. ↑ 1 2 3 4 Lin, B.; Lee, W.; Choi, H. C.; Andereck, K. "Developing and validating an ethical risk scale for service robots in hospitality". International Journal of Hospitality Management. 132. 2026: 104383. doi:10.1016/j.ijhm.2025.104383.
  11. ↑ Whitby, B. "Sometimes it's hard to be a robot: A call for action on the ethics of abusing artificial agents". Interacting with Computers. 20 (3). 2008: 326–333. doi:10.1016/j.intcom.2008.02.002.
  12. ↑ Thimbleby, H. "Robot ethics? Not yet: A reflection on Whitby's "Sometimes it's hard to be a robot"". Interacting with Computers. 20 (3). 2008: 338–341. doi:10.1016/j.intcom.2008.02.006.
  13. ↑ Silvis, D.; Clarke-Midura, J.; Shumway, J. F.; Lee, V. R.; Mullen, S. "Children caring for robots: Expanding computational thinking frameworks to include a technological ethic of care". International Journal of Child-Computer Interaction. 33. 2022: 100491. doi:10.1016/j.ijcci.2022.100491.
  14. ↑ 1 2 Vandemeulebroucke, T.; Dierckx de Casterlé, B.; Gastmans, C. "The use of care robots in aged care: A systematic review of argument-based ethics literature". Archives of Gerontology and Geriatrics. 74. 2018: 15–25. doi:10.1016/j.archger.2017.08.014.
  15. ↑ Sun, A.; Li, H. "The Realization and Limitations of "Filial Piety Ethics" in Robotic Caregiving". International Journal of Technoethics. 16 (1). 2025. doi:10.4018/IJT.366468.
  16. ↑ Lin, C. S.; Kuo, Y.-F.; Wang, T.-Y. "Trust and acceptance of AI caregiving robots: The role of ethics and self-efficacy". Computers in Human Behavior: Artificial Humans. 3. 2025: 100115. doi:10.1016/j.chbah.2024.100115.
  17. ↑ Willems, J.; Schmidthuber, L.; Vogel, D.; Ebinger, F.; Vanderelst, D. "Ethics of robotized public services: The role of robot design and its actions". Government Information Quarterly. 39 (2). 2022: 101683. doi:10.1016/j.giq.2022.101683.
  18. ↑ Leo-Liu, J. "Loving a "defiant" AI companion? The gender performance and ethics of social exchange robots in simulated intimate interactions". Computers in Human Behavior. 141. 2023: 107620. doi:10.1016/j.chb.2022.107620.
  19. ↑ Tamborini, M. "The ethics of bioinspired animal-robot interaction: A relational meta-ethical approach". Journal of Responsible Technology. 22. 2025: 100116. doi:10.1016/j.jrt.2025.100116.
  20. ↑ Giesbers, E.; Rijswijk, K.; Ryan, M.; Hossain, M.; Chauhan, A. "A robot with human values: assessing value-sensitive design in an agri-food context". Journal of Responsible Technology. 22. 2025: 100120. doi:10.1016/j.jrt.2025.100120.
  21. ↑ Callari, T. C.; Vecellio Segate, R.; Hubbard, E.-M.; Daly, A.; Lohse, N. "An ethical framework for human-robot collaboration for the future people-centric manufacturing: A collaborative endeavour with European subject-matter experts in ethics". Technology in Society. 78. 2024: 102680. doi:10.1016/j.techsoc.2024.102680.
  22. ↑ Yuko, M.; Takeo, T.; Takushi, O.; Yasunari, H. "Ethics of Information Education for Living with Robots: Current Situations in Japan and the future". The ORBIT Journal. 1 (1). 2017: 1–13. doi:10.29297/orbit.v1i1.21.
  23. ↑ Fischer, B.; Frennert, S. "Towards an experiential ethics of AI and robots: A review of empirical research on human encounters". Technological Forecasting and Social Change. 219. 2025: 124264. doi:10.1016/j.techfore.2025.124264.

  • IEEE Autonomous Systems Ethics
  • Avropa Komissiyası – Süni İntellekt Etikası
Mənbə — "https://az.wikipedia.org/w/index.php?title=Robot_etikası&oldid=8352842"
Informasiya Melumat Axtar