Halusinasi GPT-5, apakah benar-benar berkurang?

“Pada Agustus 2025, GPT-5 akhirnya dirilis.
Tidak hanya komunitas AI, tetapi seluruh dunia pun gempar.”
Pada hari itu, saya berkesempatan untuk mencoba GPT-5 yang baru.
Dengan rasa penasaran tentang seberapa banyak perubahan yang terjadi kali ini, saya segera memulai pengujian.
▼ Apakah Anda ingin mengetahui tentang performa GPT-5?
Kesan Pertama — Emosi berkurang, tetapi bagaimana dengan akurasinya?

Kesan pertama saat menggunakan GPT-5 sedikit di luar dugaan.
Percakapannya terasa lebih dingin dan formal dibandingkan sebelumnya.
Rasanya seperti berbicara dengan seorang profesor yang penuh pengetahuan namun kurang memiliki emosi.
Namun, terdapat perubahan nyata dalam angka performanya.
OpenAI menyatakan bahwa GPT-5 kali ini telah mengurangi halusinasi lebih dari 45%,
yaitu kesalahan saat AI menyampaikan informasi yang tidak benar seolah-olah nyata (disebut Hallucination).
Khususnya pada mode Thinking, dikatakan bahwa halusinasi berkurang hingga 65%.
Dan berdasarkan pengalaman langsung,
halusinasi tidak terlihat sama sekali.
Semuanya mengandung prediktabilitas melalui logika dan perhitungan angka.
Namun, di sisi lain, hal ini dapat dianggap sebagai penurunan kreativitas.
Bagaimanapun, dunia terkadang digerakkan oleh kekuatan yang tidak terlihat.
Hasil Benchmark Resmi — Memastikan Melalui Angka
Jika melihat benchmark yang dirilis,
- LongFact-Concepts: 0,7%
- LongFact-Objects: 0,8%
Ini merupakan peningkatan yang signifikan mengingat pada model sebelumnya (o3), angkanya masing-masing adalah 4,5% dan 5,1%.
Jelas bahwa GPT-5 menjadi lebih berhati-hati dalam aspek ‘faktualitas’.
Seseorang bahkan menyatakan dalam sebuah wawancara bahwa ia merasa halusinasi berkurang hingga 90%.
Menurut pandangan saya pun, secara subjektif halusinasi tersebut hampir tidak ada.
Namun, masih ada kemungkinan kesalahan pada bidang dengan berbagai probabilitas,
tetapi hal ini lebih tepat dianggap sebagai keterbatasan performa AI daripada sebuah halusinasi.
Namun, Masih Belum Sempurna

Menariknya, seperti yang telah saya sampaikan, masih ada saat-saat di mana AI melakukan kesalahan.
Menurut laporan The Guardian, terdapat kasus di mana GPT-5
melakukan kesalahan mendasar, seperti menyatakan bahwa “ada tiga huruf B dalam kata blueberry”,
atau menciptakan nama negara bagian yang tidak ada.
Dengan kata lain, halusinasi memang berkurang, tetapi belum sepenuhnya hilang.
Namun, karena artikel terkadang kurang memiliki dasar fakta yang kuat,
sepertinya cara yang paling pasti adalah dengan mencoba ChatGPT-5 secara langsung.
Kesimpulan — Memang Lebih Cerdas, Namun Verifikasi Tetap Wajib

GPT-5 jelas menjadi lebih akurat, dan perubahannya sangat nyata pada mode Thinking.
Namun, kita harus ingat bahwa AI masih bisa melakukan kesalahan.
Pada akhirnya, jawaban AI harus selalu digunakan sebagai ‘referensi’,
dan diperlukan kebiasaan untuk memverifikasi sendiri keputusan penting atau kebenaran fakta.
Di atas segalanya, bukankah kemampuan untuk menilai fakta
merupakan kualitas yang menguntungkan di era kecerdasan buatan?
Hari ini kita telah membahas tentang halusinasi ChatGPT-5.
Terima kasih telah kembali bergabung bersama kami.
“Perubahan apa yang Anda rasakan saat menggunakan GPT-5?
Silakan bagikan pendapat Anda di kolom komentar!”
