Mulai 29 Oktober, ChatGPT hanya boleh menjelaskan prinsip umum tanpa menyebut obat, dosis, atau rekomendasi investasi.
OpenAI memperbarui kebijakan penggunaan ChatGPT sejak 29 Oktober 2025. Dalam aturan baru ini, chatbot AI tersebut dilarang memberikan saran langsung di bidang kesehatan, hukum, dan keuangan.
Kebijakan ini, dikutip dari NEXTA (3/11), menyebutkan bahwa ChatGPT kini hanya boleh menjelaskan mekanisme umum, bukan menggantikan tenaga profesional. “Tidak boleh lagi menyebutkan nama obat atau memberikan dosis. Tidak boleh ada lagi template tuntutan hukum. Tidak ada lagi saran investasi atau jual-beli saham,” tulis laporan itu.
Risiko Salah Gunakan ChatGPT
Perubahan kebijakan ini muncul setelah banyak pengguna memanfaatkan ChatGPT sebagai “terapis digital”. Padahal, model bahasa seperti GPT-4o tidak memiliki empati, pengalaman langsung, atau kemampuan membaca bahasa tubuh.
“ChatGPT tidak memiliki kapasitas empati yang tulus seperti terapis berlisensi,” tulis NEXTA. Terapis profesional juga bekerja di bawah regulasi hukum yang ketat untuk melindungi pasien, sesuatu yang tak bisa dilakukan AI.
Dalam konteks keuangan, ChatGPT masih boleh menjelaskan istilah umum seperti Exchange Traded Fund (ETF). Namun, chatbot ini tidak memahami kondisi finansial pengguna seperti rasio utang, target pensiun, atau toleransi risiko.
Risiko Data dan Keterbatasan Realtime
Selain soal saran profesional, laporan IBTimes UK juga menyoroti risiko kebocoran data sensitif. Informasi seperti pendapatan, nomor rekening, kontrak kerja, hingga rekam medis sebaiknya tidak dimasukkan ke dalam prompt ChatGPT.
“Apa pun yang pengguna bagikan kemungkinan besar dapat menjadi bagian dari data pelatihan ChatGPT,” tulis media tersebut.
LLM seperti GPT-4o juga memiliki keterbatasan teknis. Meskipun fitur ChatGPT Search bisa mengambil halaman web atau harga saham terbaru, sistem ini tidak memperbarui data secara otomatis. Pengguna tetap harus memberikan perintah baru untuk memeriksa perkembangan terkini.
Dan dalam situasi darurat, ChatGPT sama sekali tidak bisa diandalkan. “Jika alarm karbon monoksida berbunyi, jangan tanya ChatGPT apakah Anda aman. Evakuasi dulu,” tulis laporan tersebut.***





