Yapay zekâ alanında öncü şirketlerden OpenAI, popüler sohbet robotu ChatGPT için yeni bir dizi güvenlik önlemi açıkladı.
Şirketin aldığı karara göre ChatGPT, artık sağlık, hukuk ve finans gibi uzman görüşü gerektiren konularda doğrudan tavsiye veremeyecek.

OpenAI, bu değişikliğin amacını “yanlış yönlendirmelerin ve hatalı kararların önüne geçmek” olarak açıkladı.

Yeni kurallar uyarınca ChatGPT:

  • Sağlık alanında teşhis koyamayacak veya ilaç dozu öneremeyecek,

  • Hukuki belgeler hazırlayamayacak ya da dava süreci hakkında yönlendirme yapamayacak,

  • Finansal yatırım tavsiyesi veya kişisel bütçe önerisi sunamayacak.

Model, bu alanlarda kullanıcıları artık yalnızca konuyla ilgili uzmanlara başvurmaları yönünde bilgilendirecek.

OpenAI yetkilileri, ChatGPT'nin dünya genelinde milyonlarca insan tarafından kullanıldığını ve bu nedenle etik sınırların netleştirilmesi gerektiğini belirtti.
Şirket, “Amacımız yapay zekânın insanlara zarar verme potansiyelini ortadan kaldırmak, güvenilir bir bilgi asistanı olarak kalmasını sağlamak” ifadelerini kullandı.

Yeni düzenleme, ChatGPT'nin tamamen kısıtlanması anlamına gelmiyor.
Model; eğitim, dil öğrenimi, araştırma, yazı üretimi, kodlama ve yaratıcı içerik alanlarında aktif olarak kullanılmaya devam edecek.
Ancak kullanıcılar artık “tedavi, hukuki çözüm veya yatırım kararı” gibi kişisel sonuç doğurabilecek yanıtlar alamayacak.