OpenAI, ChatGPT’nin Sağlık ve Hukuk Tavsiyeleri Konusunu…

OpenAI, ChatGPT’nin sağlık ve hukuk tavsiyesi vermeyeceği yönündeki iddiaları yalanlayarak, mevcut kullanım politikasının değişmediğini açıkladı.
OpenAI, sosyal medyada yayılan iddiaları yalanlayarak, ChatGPT’nin sağlık ve hukuk tavsiyesiyle ilgili kullanım politikasında bir değişiklik olmadığını duyurdu.
Şirket, ChatGPT’nin sağlık ve hukukla ilgili sorulara yanıt vermeye devam edeceğini belirtti. OpenAI’ın sağlık alanındaki yapay zeka çalışmalarından sorumlu yöneticisi Karan Singhal, bu iddiaların doğru olmadığını ifade etti.
Singhal, ChatGPT’nin profesyonel tavsiyelerin yerine geçmediğini, ancak kullanıcıların hukuk ve sağlık konularını daha iyi anlamalarına yardımcı olmaya devam edeceğini vurguladı.
Bu açıklama, bahis platformu Kalshi’nin ChatGPT’nin sağlık veya hukuk tavsiyesi vermeyeceğini öne süren paylaşımına yanıt olarak geldi. OpenAI yöneticisi, kullanım şartlarında hukuk ve tıbbi danışmanlıkla ilgili ifadelerin yeni bir değişiklik olmadığını belirtti.
OpenAI, 29 Ekim’de güncellenen yeni kullanım politikasıyla, ChatGPT’nin hangi amaçlarla kullanılamayacağını net bir şekilde ortaya koydu. Bu maddelerden biri, lisans gerektiren özel tavsiyelerin lisanslı bir uzmanın dahil edilmeden verilmesi gerektiğini belirtiyor.
Eski politikada da kullanıcıların nitelikli bir uzmanın incelemesi olmadan kişiye özel hukuk, sağlık veya finansal tavsiyelerde bulunmamaları isteniyordu. OpenAI, daha önce üç ayrı politika belgesine sahipken, şimdi tüm ürün ve hizmetleri kapsayan tek bir birleşik politika listesine geçti.
Tüm bu tartışmalar, yapay zeka kullanımının ruh sağlığı krizini derinleştirdiği yönündeki araştırmalarla başladı. Uzmanlar, kullanıcıların ChatGPT ve benzeri yapay zeka araçlarıyla etkileşim sonucu ruhsal çöküntüler yaşadığını belirtiyor.
Geçen hafta, Sam Altman liderliğindeki şirket, aktif ChatGPT kullanıcılarının önemli bir kısmında akıl sağlığı krizlerinin işaretleri tespit edildiğini bildirdi. Ayrıca, daha geniş bir kullanıcı grubunun intihar planı veya niyetine dair açık göstergeler içeren konuşmalar yaptığı belirlendi.
Eski OpenAI güvenlik araştırmacısı Steven Adler, şirketin bu sorunları hafifletmek için yeterince çaba göstermediğini savunarak, yapay zeka güvenliğine odaklanmaktan vazgeçtiğini ifade etti.
İlgili Haberler: iPhone 18’in Renk Seçenekleri Merak Uyandırıyor · Yapay Zeka Akıl Yürütme Kapasitesi Artarken Bencilleşiyor