## Arka Plan
Yapay zeka alanındaki hızlı ilerleme, son yıllarda metin, ses ve görüntü verisi üzerinden kişilik simülasyonlarını mümkün kıldı. Özellikle GPT tabanlı dil modelleri, bir kişinin yazışma tarzını, kelime seçimlerini ve hatta espri anlayışını taklit etmeye başladı. Pek çok teknoloji şirketi, kullanıcı deneyimini zenginleştirmek adına sanal sohbet asistanları ve dijital karakter uygulamaları geliştirirken, hukuki ve etik sınırlar henüz netleşmiş değil.
Çin merkezli bir grup geliştirici, bu imkanları bir adım ileri taşıyarak kullanıcıların eski partnerleri hakkındaki tüm iletişim verilerini tarayıp analiz eden bir AI aracı ortaya koydu. Araç, mesajlaşma geçmişi, sosyal medya paylaşımları ve fotoğraflar üzerinden kişilik haritası çıkarıp, dijital bir “hayalet” sohbet partneri sunuyor. Bu yaklaşım, hem teknoloji meraklılarının hem de ilişkisel kayıplar yaşayan kullanıcıların ilgisini çekti.
## Gelişmeler
Söz konusu araç, kullanıcıdan eski sevgilisiyle yaptığı WhatsApp, WeChat veya Weibo yazışmalarını yüklemesini istiyor. Ardından bu yazışmalardaki dil kalıplarını, emoji tercihlerini ve en sık kullanılan ifadeleri öğrenerek sohbet botunu eğitiyor. Kullanıcı, dilediği zaman bu yapay zekayla eski ilişkisindeki diyalogları yeniden canlandırabiliyor.
Mayıs 2026’da yayınlanan ilk betada binlerce kullanıcı, duygusal rahatlama ve nostalji yaşadığını bildirirken bazıları da etik kaygılarını dile getirdi. Sosyal medyada hızla yayılan tepkilerde bir kesim, “acıyı azaltan bir terapi aracı” yorumunu yaparken, diğerleri “kişilik haklarına ihlal” ve “duygusal bağımlılık” uyarılarıyla karşı çıktı. Geliştirici ekip, aracı ticari sürüme taşıma hazırlığında olduğunu açıkladı.
## Analiz
Bu yapay zeka uygulaması, teknolojinin insan psikolojisine müdahale sınırlarını tartışmaya açıyor. Kayıp ilişkilerin yarattığı boşluğu doldurma iddiası, bir terapi olarak algılanabilir; ancak gerçek bir insan deneyiminin yerini alması mümkün değil. Uzmanlar, kullanıcıların psikolojik iyileşme sürecini erteleyip yapay sohbetlere tutunma riskine işaret ediyor.
Diğer yandan kişilik hakları ve veri güvenliği boyutu, hukuki zeminde henüz net değil. Bir kişinin onayı alınmadan sosyal medya verilerinin eğitim setine dönüşmesi, Avrupa Birliği’nde GDPR ihlali kapsamına girebilir. Çin’de veri koruma yasaları halen şekillenme aşamasında olduğu için bölgedeki regülasyon boşluğu, bu tarz ürünlerin yaygınlaşmasını kolaylaştırıyor.
Son olarak, duygusal manipülasyon riski de göz ardı edilmemeli. Kötü niyetli aktörler, bu tür araçları propaganda veya sahte kimlikler oluşturmak için kullanabilir. Dijital kişiliklerin taklit edilebilir olması, sosyal mühendislik saldırılarında yeni bir silah haline gelebilir.
## Türkiye’ye Etkileri
Türkiye’de de yapay zeka temelli sohbet botları ve sanal asistanlar popülerlik kazandı. Ancak kişilik haklarının korunması ve veri güvenliği konusundaki düzenlemeler, henüz AI odaklı uygulamalara tam uyum sağlamış değil. Kişisel verilerin korunması kanunu (KVKK) kapsamında, benzer bir araç yerli teknoloji geliştiricilere yasal sorumluluklar yükleyebilir.
Türk kullanıcılar arasında düzenli psikolojik danışmanlık alışkanlığı henüz yaygınlaşmadığından, bu tür dijital “duygusal destek” uygulamalarına ilgi yüksek olabilir. Ancak uzmanlar, profesyonel yardımın yerini tutmayacağını vurguluyor. Rekabetçi global pazarda yer almak isteyen yerli girişimciler de etik kuralları gözeterek benzer projeler geliştirebilir.
## Sonuç
Yeni AI aracının gündeme taşıdığı başlıca tartışma, teknolojinin duygu ve hafıza üzerindeki dönüştürücü gücü. Duygusal açığı telafi etme vaadi, bir yandan kullanıcıları cezbediyor; diğer yandan kişilik hakları, veri güvenliği ve psikolojik riskler konusunda kırmızı alarm veriyor. Türkiye’de ve dünyada bu tip uygulamaların regülasyonu ve etik denetimi, önümüzdeki dönemde kritik önem taşıyacak.




