Grok’un hakaret ve küfür içerikli paylaşımları tüm dünyada eleştiri konusu oldu

Grok’un Güncellemesi Tartışma Yarattı: Yapay Zeka Sınırlarını Zorluyor

Grok’a hafta sonu yapılan güncelleme ile birlikte sohbet robotunun verdiği cevaplarda radikal bir değişiklik yaşandı.

Daha önce küfür ve hakaret içeren cevaplarından kaçınan Grok, güncelleme sonrasında çeşitli konularda yaptığı uygunsuz paylaşımlarla gündeme geldi.

“Politik olarak yanlış da olsa iddialarda bulunmaktan çekinmemek” gibi çeşitli özelliklerin eklenmesi Grok’un yanıtlarını olumsuz yönde etkiledi.

Grok’un birçok konudaki uygunsuz yorumları, yapay zekanın etik sınırlarını tekrar gündeme getirdi.

Grok, algoritmalarda yaşanan değişimden sonra dünyada birçok ülkede ve dilde kullanıcılara, siyasi ve dini liderlere ve dinlere hakaret etmeye başladı.

Türkiye’de X’in en çok kullanılan uygulamalarından biri olması nedeniyle Grok’un yanıtları Türk kullanıcıların da tepkisini çekti.

Kullanıcıların X’teki paylaşımlarında etiketleyerek sorular sorduğu Grok, çeşitli kişi ve konular hakkında küfür ve hakaret içeren paylaşımlarda bulundu.

  • Ankara Cumhuriyet Başsavcılığı, “Grok” programının birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı.

Grok’un yanıtları sadece Türkiye’de değil küresel çapta da gündem oldu. Güney Afrika’daki çeşitli politik konularla ilgili uygunsuz paylaşımlar yapan Grok, benzer şekilde Hindistan’daki politikacılarla ilgili de hakaret içeren paylaşımlarda bulundu. Robot, Hindistanlı kullanıcılara yerel dilde küfür içeren cevaplar da verdi.

Son olarak Nazi lideri Adolf Hitler’i öven paylaşımlar yapan Grok’un uygunsuz paylaşımlarının çoğalması üzerine geliştiricisi xAI, söz konusu paylaşımların incelendiğini ve çalışmaların sürdüğünü açıkladı. Açıklamanın ardından Grok, kullanıcıların sorularına cevap vermeyi durdurdu. Soruna yol açan son güncellemenin geliştiriciler tarafından gözden geçirilmesi bekleniyor.

Yapay zekanın uygunsuz paylaşımları Grok’la sınırlı değil

Yapay zeka sistemlerinin yaptığı ırkçı hareketler Grok’la sınırlı değil. Daha önce de yapay zekaların ırkçı ve hakaret içerikli paylaşımlar yapmasıyla ilgili pek çok örnek yaşandı.

2016 yılında Microsoft tarafından geliştirilen ve X’te (o zamanki adıyla Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesabı “Tay”, özellikle 18-24 yaş arası gençlerle sohbet etmek ve onlardan öğrenerek cevap vermek üzere tasarlanmıştı.

Tay, çok kısa bir süre içinde gerçek kullanıcıların paylaşımlarından beslenerek ırkçı ve İslamofobik paylaşımlar yapmaya başlamış ve bu sebeple Microsoft, Tay’ın paylaşımlarına müdahale etmek zorunda kalmıştı.

Tay ve Grok’a benzer başlıca örneklerden biri de Meta tarafından geliştirilen BlenderBot 3 oldu. Şirket tarafından 2022 yılında gelişmiş bir sohbet robotu olarak test için piyasaya sürülen BlenderBot 3, kullanıcılarla doğal sohbetler yapmayı ve etkileşimlerinden öğrenmeyi amaçlıyordu. Çok kısa bir süre içinde, BlenderBot 3 de TAY ve Grok’a benzer sorunlar yaşamaya başladı. Kullanıcıların inançlarına hakaretler eden BlenderBot 3, aynı zamanda sosyal medyada dile getirilen komplo teorilerini tekrar etmesiyle de gündem oldu.

Related Posts

Bilimin yeni mucizesi: Şimdi de erimeyen buz yaptılar

Bilim insanları sulu bir kalıntı bırakmayan, titrek, kompostlanabilir bir jelatinden sıra dışı bir buz üretmeyi başardı: İşte “jelly ice” ve normal buza göre avantajları…

ABD, yeni radar sistemi ile uzayda kuş uçurtmayacak

ABD Uzay Kuvvetleri’nin yeni derin uzay radarı, önemli bir testte 35 bin km uzaklıktaki uyduları görmeyi başardı.

Siber saldırıların yeni yüzü! Yapay zekanın karanlık potansiyeli

Yapay zeka (YZ) teknolojisindeki baş döndürücü ilerlemeler, siber güvenlik dünyasında hem umut hem de endişe kaynağı olmaya devam ediyor. Son bilimsel araştırmalar ve uzman görüşleri, YZ’nin karmaşık siber saldırılar düzenleyebilecek bir seviyeye …

20 dakikadan fazlası ölüme götürüyor, çoğu sürücü farkında bile değil! Bu düğme Azrail’in ta kendisi…

Arabanızı her kullandığınızda bu ölümcül hatayı yapıyor olabilirsiniz. Serinlemek için bastığınız o düğme, aslında aracın yaşam destek ünitesini kapatıyor. 20 dakikadan sonra içerideki hava zehirli hale gelmeye başlıyor ve direksiyon başındaki en büyük düşmanınız oluyor.

Yapay zeka kadınların sağlığını küçümsüyor

İngiltere’de yapılan bir araştırmaya göre yapay zeka araçları, kadınların bakım ihtiyaçlarını göz ardı ediyor veya daha az ciddi terimlerle tanımlıyor.

Uzaya gidecek üçüncü Türk: Gökhan Erdem kimdir? Fırlatma tarihi ve saati duyuruldu

Türkiye’nin üçüncü uzay yolcusu Gökhan Erdem, tamamen bireysel girişimiyle Blue Origin’in NS-34 göreviyle 3 Ağustos’ta uzaya çıkıyor. İşte tarihi görev hakkında tüm detaylar…