29 Ekim 2025 tarihi itibarıyla yürürlüğe giren yeni düzenlemeler, yapay zeka sohbet robotu ChatGPT'nin kullanım alanlarında önemli değişiklikler getirdi. Teknoloji devi OpenAI tarafından alınan kararla, artık kullanıcılar tıbbi tanı, hukuki tavsiye veya finansal yatırım önerileri alamayacak. Bu hamle, olası hukuki sorumluluk risklerini azaltmayı ve kullanıcıları olası yanlış yönlendirmelerden korumayı amaçlıyor.
Kırmızı Çizgiler Netleşti: İlaç, Dilekçe ve Yatırım Yasak
Yeni kurallar, üç temel alanda net sınırlar çizdi. ChatGPT'nin artık hiçbir ilaç ismi veya dozaj bilgisi veremeyeceği, dava dilekçesi hazırlayamayacağı ve yatırım tavsiyesinde bulunamayacağı açıklandı. Model, bu konularda yalnızca genel bilgilendirme yapabilecek ve kullanıcıları ilgili uzmanlara (doktor, avukat, mali müşavir) yönlendirecek. Bu karar, yapay zekanın bir "lipom"u "kanser şüphesi" olarak yanlış yorumlayabildiği gerçeğine dayandırılıyor.
Uzmanlık ve Etik Sınırları Vurgulandı
OpenAI, modelin psikolojik destek veya terapi amaçlı kullanımının da tehlikeli olabileceğini resmen kabul etti. Yapay zekanın insan davranışlarını okuyamadığı, empati kuramadığı ve hukuki yükümlülük taşımadığı vurgulandı. Ayrıca, kullanıcıların kişisel ve finansal verilerini paylaşmasının veri güvenliği açısından büyük risk taşıdığına dikkat çekildi. Eğitim ve telif hakları konusunda da uyarılar yapılarak, modelin ödev veya sınavlarda hile amacıyla kullanılmasının etik dışı olduğu belirtildi. Bu adım, yapay zekanın bir "yardımcı" olarak kalması gerektiği, "uzman"ın yerini asla alamayacağı gerçeğinin resmi bir kabülü olarak yorumlanıyor.




