11060,53%0,81
42,04% -0,03
48,42% -0,26
5420,96% 0,17
8921,73% -0,71
Yapay zekâ destekli sohbet platformu ChatGPT, 29 Ekim itibarıyla yürürlüğe giren yeni kurallarla birlikte artık sağlık, hukuk ve finans alanlarında doğrudan danışmanlık hizmeti veremeyecek. Yeni düzenleme, ChatGPT’nin bundan böyle bir “danışman” değil, “eğitim aracı” olarak kullanılmasını hedefliyor.
OpenAI tarafından yapılan güncellemeye göre ChatGPT, artık yalnızca genel bilgileri açıklayacak, sistemlerin nasıl işlediğini örneklerle anlatacak ve kullanıcıları doktor, avukat veya mali müşavir gibi yetkili uzmanlara yönlendirecek. Bu değişiklikle birlikte yapay zekânın hukuki ve tıbbi sorumluluk doğurabilecek yanıtlar vermesinin önüne geçilmesi amaçlanıyor.
Büyük teknoloji şirketlerinin aldığı bu karar, olası hukuki yaptırımlar, dava riskleri ve yanlış yönlendirme ihtimalleri nedeniyle yapay zekâ modellerine getirilen en kapsamlı kısıtlamalardan biri olarak görülüyor.
Yeni kurallar, oldukça net ifadelerle belirlenmiş durumda:
“İlaç ismi veya dozaj verilemez, dava dilekçesi hazırlanamaz, yatırım tavsiyesi yapılamaz.”
Bu sınırların belirlenmesinde, yapay zekânın yanlış yönlendirme potansiyeline ilişkin uyarılar etkili oldu. Uzmanlar, örneğin bir kullanıcının “göğsümde şişlik var” şeklindeki bir sorusuna ChatGPT’nin “kanser olabilir” gibi riskli bir yanıt vermesinin, yanlış teşhis ve panik yaratma ihtimaline dikkat çekiyor.
OpenAI’nin aldığı önlemler yalnızca sağlık alanıyla sınırlı değil. ChatGPT’nin psikolojik danışmanlık veya terapi amaçlı kullanımının da tehlikeli olabileceği vurgulanıyor. Modelin empati kuramaması, insan davranışlarını tam olarak okuyamaması ve hukuki sorumluluk taşımaması bu kararın gerekçeleri arasında yer alıyor.
Ayrıca, kullanıcıların kişisel gelir, borç veya risk profili gibi verilerini paylaşması durumunda, veri güvenliği açısından ciddi tehlikeler doğabileceği belirtiliyor. Bu nedenle ChatGPT’nin yatırım, kredi veya vergi tavsiyesi vermesi de tamamen yasaklandı.
Yeni kısıtlamalar, yalnızca profesyonel alanları değil, etik sınırları da kapsıyor. ChatGPT’nin ödev, sınav ya da sanat üretiminde hile veya intihal amacıyla kullanılması, hem eğitim etiğine hem de telif haklarına aykırı olarak değerlendiriliyor.
Uzmanlara göre, bu kararlar yapay zekânın kontrollü ve etik kullanımını teşvik ediyor. Özellikle veri güvenliği, mahremiyet ve içerik doğruluğu konularında yeni denetim mekanizmalarının devreye alınması bekleniyor.
Yapay zekâya getirilen bu yeni sınırlar, ChatGPT’nin rolünü net bir şekilde tanımlıyor:
Artık ChatGPT, bilgiyi öğretici biçimde sunan bir yardımcı olarak konumlanıyor. Uzmanların yerini almak yerine, onların rehberliğine yönlendiren bir araç haline geliyor.
Uzmanlar, bu değişikliğin teknolojinin “insan uzmanlığının yerini alamayacağı” gerçeğini resmi olarak kabul ettiğini belirtiyor. Yapay zekâ, bilgiye erişimi kolaylaştırsa da, nihai karar ve yorumun insanlara ait olması gerektiği ilkesi yeniden vurgulanmış oldu.