Psikoloji ve yapay zekâ etiği
View/ Open
Access
info:eu-repo/semantics/openAccessDate
2023Author
Cesur, Sevim
Karasu, Mehmet
Gezgin, Ulaş Başar
Metadata
Show full item recordCitation
Gezgin, U.B. (25-26 Kasım 2023). Psikoloji ve Yapay Zekâ Etiği. II. Sosyal Psikolojide Ahlak Çalışmaları Ulusal Sempozyumu. İstanbul.Abstract
Yapay zekâ, hızla psikolojiye etki etmektedir. Yapay zekâya aşırı güven olarak nitelenen yapay zekâ fetişizmi ve tersine güvensizlik, yapay zekâ-insan ilişkisinde önem kazanmaktadır. Sohbet robotları (chatbot) özellikle bilişsel davranışçı ve insancıl terapistleri taklit etmekte ve yapılan çalışmalarda olumlu etkiler bıraktıkları gözlemlenmektedir. Öte yandan, yapay zekâ, etik davranıştan bağımsız değildir. Yapay zekânın psikolojide kullanımı birçok etik sorun doğurmaktadır. Bunların başında kişisel gizlilik sorunu gelmektedir. Öte yandan, terapiye erişimdeki toplumsal eşitsizliği kırmada, sohbet robotlarının etkili olması
beklenmektedir. Kolay erişilebilirlik ve düşük maliyet, sohbet robotlarının olumlu özellikleri olarak karşımıza çıkmaktadır. Sohbet robotları da insan terapistler gibi birtakım ahlaki ikilemler yaşarlar: Örneğin, bir sohbet robotu, danışan tarafından açıklanan bir suçu, ikili ilişki dışına taşımalı mıdır? Sohbet robotunun iki tepkisi de zarar verici olacaksa, sohbet robotu hasarı daha az olan seçeneği nasıl seçecektir? Ayrıca yapay zekâ, doğru verilerle eğitilmemişse ön yargılı olabilmektedir. Örneğin, daha önceki veriler ırkçı olduğu için Siyahları suçlu bulan yapay hukuk programları, ölümcül derecede yanıltıcı olabilmektedir. Aynısını yapay zekâ psikolojisi için de düşünebiliriz. Diğer ilgili kavramlar, algoritma şeffaflığı ile hesap verebilirlik ve bunların bir sonucu olan açıklanabilir yapay zekâ ve sorumlu yapay zekâ olmaktadır. Bu
çalışma, henüz çok az çalışılan bir alandaki bir tartışma metnidir. Psikoloji bağlamında yapay zekâ etiği, adillik, güven, hesap verirlik, yinelenebilirlik; aydınlatılmış onam; yanlılık, güvenlik, şeffaflık, danışan gizliliği, kötüye kullanılma olasılığı gibi kavramları kapsamaktadır. Abstract
Artificial intelligence is rapidly affecting psychology. Artificial intelligence fetishism, defined as excessive trust in artificial intelligence, and in contrast, distrust, gain importance in the artificial intelligence-human relationship. Chatbots especially imitate cognitive behavioral and humanistic therapists, and studies have shown that they have positive effects. On the other hand, artificial intelligence is not independent of ethical behavior. The use of artificial intelligence in psychology raises many ethical problems. The most important of these is the issue of personal privacy. On the other hand, chatbots are expected to be effective in breaking social inequality in access to therapy. Easy accessibility and low cost are the positive features
of chatbots. Chatbots, like human therapists, experience moral dilemmas: For example, should a chatbot take a crime disclosed by the client outside the dyadic relationship? If both of the chatbot’s reactions will be damaging, how will the chatbot choose the less damaging option? Etc. Additionally, artificial intelligence can be biased if it is not trained with the right data. For example, artificial law programs that convict Black people because prior data is racist can be fatally misleading. We can think of the same for the psychology of artificial intelligence. Other related concepts are algorithm transparency and accountability, and their corollaries, explainable AI and responsible AI. This study is a discussion text in a field that is still little studied. Artificial intelligence ethics in the context of psychology, covers concepts such as fairness, trust, accountability, replicability; informed consent; bias, security, transparency, client confidentiality, and the possibility of abuse.