-4.9 C
New York kenti
Cuma, Aralık 5, 2025

Makineler Duygularımızı Öğrenirse Ne Kaybederiz?

Mutlaka Oku


Algoritmalar size “anlıyorum” dediğinde, siz kendi kendinize ne kadar güvenebilirsiniz? Yapay zekâ duyguları öğrendiğinde, biz neyi kaybetmeye başlayacağız?


İnsan ilişkileri, kırılganlıklarla, sessizliklerle, göz temaslarıyla şekillenir. Bir duygu ifadesi, bir tereddüt, bazen bir bakış, aramızda köprü kurar. Ama şimdi karşımızda bir soru duruyor: makineler bu köprüyü analiz edip geçebilir mi? Duygularımıza nüfuz etmek istediklerinde, biz neyi kaybederiz?


Duyguların Kodları: AI’nın İçsel Yolculuğu

Son yıllarda duygusal yapay zekâ — yani “Emotion AI” ya da “Affective Computing” — alanında önemli gelişmeler yaşanıyor. AI artık yüz ifadeleri, ses tonu, vücut dili, kalp atışı gibi verileri analiz ederek insan duygularını tahmin etmeye çalışıyor. Brunel Üniversitesi’nde yapılan bir çalışma, EEG sinyallerinden insan duygularını tanıyacak modeller üzerinde çalışıyor. Elde edilen başarı oranları %98’e kadar çıkıyor.  Ancak bu, gerçek “anlayış” mı, yoksa sadece gelişmiş bir taklit zanı mı? Akademik çalışmalarda pek çok makale artık duygusal yapay zekânın risklerine de ışık tutuyor. Sahte mahrem ilişkiler ve insan etkileşimlerindeki bozulmalar gibi tehlikeleri tartışmaları gün geçtikçe daha fazla üstünde duruluyor. 
Dolayısıyla bu konu özelinde çalışan bilim insanları çok iyi takip edilmeli ve tüm insanlar tarafından tartışılması ve olası sonuçları hakkında mutlaka konuşmamız gerekecek!


Ne Gibi Kayıplar Söz Konusu?

Bu teknolojinin hızla ilerlemesi elbette bazı faydalar getirebilir. Kullanıcı deneyimini iyileştirmek, mental sağlık destek sistemlerine yardımcı olmak gibi alanlar potansiyel kullanımlar arasında. 

Ama her ışığın birde gölgesi vardır:

  • Samimiyet: Bir algoritmanın size “empati kurduğunu” söylemesi, gerçek bir insanın kırılganlığını asla veremeyecektir.
  • Gerçekliğin bulanıklaşması: AI’nin söylediklerini bazen çok düzgün olur ki, doğru gibi görünür; ama bu, yanlış algılar yaratabilir.
  • Etik manipülasyon: Duygusal veriler, insanların kararlarını yönlendirmek için kullanılabilir. Bir marka sizin ruh halinizi analiz edip size özel mesajlar gönderebilir.
  • İzolasyon: İnsanlar, kusursuz bir “duygusal partner” gibi görünen fakat gerçek empati vermeyen bir AI ile daha fazla vakit geçirme eğilimine girebilir. Bu, özellikle yalnızlık yaşayan bireylerde ciddi psikolojik sonuçlara yol açabilir.
  • Gerçek ilişkilerin değersizleşmesi: Duygusal iniş çıkışlarımız, anlaşmazlıklarımız, affedebilme gücümüz… Bunlar bizim insan olmamızın dokusu. AI ile ilişkilerde bu dokular silikleşebilir.

Aslında işler çok daha derin: AI ile ilişkiler bazen “feedback loop / geri besleme döngüsü” oluşturabilir. İnsan, AI’dan gelen tepkiye göre davranır; AI, o davranışı analiz edip yanıtlar. Bir çeşit tersine yansıma mekanizmasıdır. Bu döngü, zamanla insanın kendi iç sesiyle çakışabilir. Yani insani olan iç sesimizin evrimleşmesi veya körelmesi durumu gerçekten çok düşündürücü…

“Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness” adlı çalışma, AI botları ile duygusal ilişki yaşayan bireylerde psikolojik etkileşimlerin tehlikeli döngüler yaratabileceğini öne sürüyor. Örneğin görüş ayrılıkları, halüsinasyon benzeri düşünceler, bağımlılık riski gibi sorunlar bu etkileşimlerde gözlemleniyor. 


Son Not :

Ben uzun yıllarımı öğretim görevlisi olarak, öğrencilerime sadece teknik bilgi değil, sorgulama becerisi de kazandırmak istedim. Dijital dünyadaki gelişmeleri yakından takip ederek her zaman en son bilgiyi aktarmayı ödev olarak uygulamadım. Bu yazı, yapay zekânın duygularımıza sızan halini bir alarm gibi görmeniz için kaleme aldım. Çünkü eğer makineler hislerimizi anladığını söylerken, biz kendi hislerimize yabancılaşırsak, insanlığın en değerli mirası — empati, kırılganlık, karşılıklı anlam arayışı — kaybolur veya geri dönülemez bir şekilde yeni bir yola girer ve bizlerin bu noktada mutlaka düşünmemiz gerektiğini düşünüyorum… 

 

Yazar

- Advertisement -

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Advertisement -

Son Eklenenler