ChatGPT Dilarang Beri Saran Hukum, Medis, dan Keuangan: Ini Penjelasan Lengkapnya

ChatGPT kini tak lagi memberi saran medis, hukum, atau keuangan. Sejak 29 Oktober 2025, AI ini hanya boleh menjelaskan prinsip umum—bukan menggantikan tenaga profesional. - Ilustrasi dibuat menggunakan SORA.
Mulai 29 Oktober, ChatGPT hanya boleh menjelaskan prinsip umum tanpa menyebut obat, dosis, atau rekomendasi investasi.

OpenAI memperbarui kebijakan penggunaan ChatGPT sejak 29 Oktober 2025. Dalam aturan baru ini, chatbot AI tersebut dilarang memberikan saran langsung di bidang kesehatan, hukum, dan keuangan.

Kebijakan ini, dikutip dari NEXTA (3/11), menyebutkan bahwa ChatGPT kini hanya boleh menjelaskan mekanisme umum, bukan menggantikan tenaga profesional. “Tidak boleh lagi menyebutkan nama obat atau memberikan dosis. Tidak boleh ada lagi template tuntutan hukum. Tidak ada lagi saran investasi atau jual-beli saham,” tulis laporan itu.

Risiko Salah Gunakan ChatGPT

Perubahan kebijakan ini muncul setelah banyak pengguna memanfaatkan ChatGPT sebagai “terapis digital”. Padahal, model bahasa seperti GPT-4o tidak memiliki empati, pengalaman langsung, atau kemampuan membaca bahasa tubuh.

“ChatGPT tidak memiliki kapasitas empati yang tulus seperti terapis berlisensi,” tulis NEXTA. Terapis profesional juga bekerja di bawah regulasi hukum yang ketat untuk melindungi pasien, sesuatu yang tak bisa dilakukan AI.

Bacaan Lainnya

Dalam konteks keuangan, ChatGPT masih boleh menjelaskan istilah umum seperti Exchange Traded Fund (ETF). Namun, chatbot ini tidak memahami kondisi finansial pengguna seperti rasio utang, target pensiun, atau toleransi risiko.

Risiko Data dan Keterbatasan Realtime

Selain soal saran profesional, laporan IBTimes UK juga menyoroti risiko kebocoran data sensitif. Informasi seperti pendapatan, nomor rekening, kontrak kerja, hingga rekam medis sebaiknya tidak dimasukkan ke dalam prompt ChatGPT.

“Apa pun yang pengguna bagikan kemungkinan besar dapat menjadi bagian dari data pelatihan ChatGPT,” tulis media tersebut.

LLM seperti GPT-4o juga memiliki keterbatasan teknis. Meskipun fitur ChatGPT Search bisa mengambil halaman web atau harga saham terbaru, sistem ini tidak memperbarui data secara otomatis. Pengguna tetap harus memberikan perintah baru untuk memeriksa perkembangan terkini.

Dan dalam situasi darurat, ChatGPT sama sekali tidak bisa diandalkan. “Jika alarm karbon monoksida berbunyi, jangan tanya ChatGPT apakah Anda aman. Evakuasi dulu,” tulis laporan tersebut.***

Pos terkait

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *