Tren penggunaan kecerdasan buatan (AI)
semakin meningkat di kalangan masyarakat. Perkembangan ini turut merambah
pelayanan publik yang adaptif, termasuk di lingkungan lembaga peradilan.
Sejarah mencatat, konsep kecerdasan buatan telah muncul sejak tahun 1955-1956
dengan program awal bernama Logic Theorist. Namun, adopsi masif terhadap
AI baru terjadi dalam beberapa tahun terakhir, terutama setelah kemunculan
ChatGPT dari OpenAI. Produk ini memperkenalkan antarmuka interaktif yang mudah
diakses, memungkinkan masyarakat umum merasakan langsung pengalaman
berinteraksi dengan sistem AI. Berbagai pembaruan fitur membuat teknologi ini
semakin menjanjikan, bahkan membuka peluang penggunaannya dalam penyusunan
putusan pengadilan. Namun demikian, mengingat fungsi lembaga peradilan yang
sangat prudent, analisa terhadap potensi pelanggaran etik menjadi
krusial sebelum adopsi AI diterapkan dalam praktik peradilan.
Bagaimana Kecerdasan Buatan Bekerja?
Baca Juga: Kode Etik Hakim: Ibarat Perahu Di Tengah Badai
Untuk memahami potensi pelanggaran
etik, harus dipahami terlebih dahulu cara kerja kecerdasan buatan. Secara umum,
teknologi ini mampu menyelesaikan persoalan menggunakan prinsip dasar logika premis
jika–maka. Konsep ini menyerupai pola berpikir manusia dalam menarik
kesimpulan berdasarkan kejadian tertentu. Seiring waktu, pendekatan tersebut
berkembang menjadi lebih kompleks melalui penggunaan basis data yang luas dan
pola-pola probabilistik. Kompleksitas ini mengaburkan batas premis sederhana
dan menjadikan AI mampu menghasilkan kesimpulan yang kontekstual.
Dalam konteks ChatGPT, setidaknya ada empat syarat agar
AI dapat berfungsi sebagaimana mestinya:
- Basis data yang besar. AI dilengkapi dengan miliaran kata
dari beragam sumber teks.
- Kemampuan memahami pola dan asosiasi antar data. AI tidak hanya menyimpan, tetapi juga memaknai konteks antar basis
data.
- Kemampuan memahami instruksi (prompt). AI
menerjemahkan pertanyaan, perintah, maupun sanggahan.
- Kemampuan merespons secara kontekstual dan dinamis. AI menyesuaikan jawaban dengan konteks dan dapat diperbaiki bila ada
klarifikasi.
Bagaimana dengan AI berbasis gambar, suara, atau
animasi? Prinsip kerjanya serupa, hanya saja basis datanya berbeda. Misalnya,
dalam pengolahan gambar, AI mengenali gaya (style) visual yang umum muncul.
Gaya ini menjadi dasar penilaian terhadap elemen dalam gambar, seperti wajah,
tubuh, atau latar belakang. Dengan demikian, instruksi seperti “hapus latar
belakang” akan dieksekusi berdasarkan identifikasi pola visual. Prinsip yang
sama berlaku pada AI yang memproses suara, animasi, dan lainnya.
Bagaimana Hakim Menyusun Putusan?
Penyusunan putusan oleh hakim dimulai dengan musyawarah
untuk meneguhkan fakta hukum yang diperoleh dari pembuktian kemudian menentukan
pertimbangan hukum untuk menuju pada amar putusan. Setelah musyawarah selesai,
hakim menyusun putusan sesuai dengan konsep dalam Surat Keputusan Ketua
Mahkamah Agung Nomor 359/KMA/SK/XII/2022. Dalam praktiknya, hakim akan
memindahkan isi penting dari berita acara persidangan ke dalam konsep putusan,
menuliskan pertimbangan hukum dan menuliskan amar dalam konsep tersebut. Setelah
disusun, putusan direviu untuk menghindari kesalahan redaksional, lalu
dibacakan dan ditandatangani.
Bagaimana AI Dapat Mengambil Alih Penyusunan Putusan?
AI berpotensi mengambil alih penyusunan putusan jika
dipenuhi empat prasyarat tadi, dengan tambahan bahwa AI diberi akses pada data
hukum dan yurisprudensi. Simulasi berikut menggambarkan skenario tersebut:
- Hakim mengunggah berita acara
persidangan ke AI, dan AI diminta menyimpulkan fakta hukumnya. AI yang telah
mempelajari alat bukti dan kekuatan pembuktian, akan menampilkan hasil berupa
fakta hukum.
- Hakim memerintahkan AI menyusun pertimbangan
dan amar putusan berdasarkan fakta tersebut. AI yang telah mempelajari berbagai
dokumen hukum, akan menampilkan hasil berupa pertimbangan dan amar putusan.
- Hakim memerintahkan AI menyusun
putusan lengkap sesuai format SK KMA. AI yang telah mempelajari konsep putusan,
akan menampilkan hasil putusan yang siap dibacakan.
Apakah Menyusun Putusan dengan AI Melanggar Etika?
Etika hakim diatur dalam Keputusan Bersama Ketua
Mahkamah Agung dan Ketua Komisi Yudisial tahun 2009 tentang Kode Etik dan
Pedoman Perilaku Hakim (KEPPH). Dalam konteks ini, ada dua butir etika yang
patut diperhatikan:
- Pelanggaran Etika Bertanggungjawab
(Butir 6.2 KEPPH)
Hakim dilarang mengungkap atau menggunakan informasi rahasia di luar tugas peradilan. Meski penyusunan putusan adalah tugas peradilan, ketika proses tersebut diserahkan pada sistem eksternal seperti ChatGPT, timbul potensi eksploitasi data. Terlebih, dalam Terms of Use ChatGPT (per-11 Desember 2024), dinyatakan bahwa input pengguna dapat digunakan untuk pengembangan layanan, termasuk kemungkinan dibaca oleh pihak manusia. Risiko kebocoran data—terutama dalam perkara asusila atau yang menyangkut rahasia negara—menjadi ancaman nyata terhadap integritas peradilan. - Pelanggaran Etika Bersikap Profesional
(Butir 10.4 KEPPH)
Hakim wajib menghindari kekeliruan dalam membuat putusan. Namun, ChatGPT sendiri menyatakan bahwa output-nya tidak selalu akurat dan tidak dapat dijadikan sumber kebenaran tunggal. Dengan demikian, AI tidak bisa menjadi pengganti otoritas profesional hakim tanpa melanggar prinsip etik ini.
Bagaimana Bersikap Adaptif terhadap AI?
Meski demikian, tidak bisa dipungkiri bahwa AI memiliki
keunggulan. Sikap adaptif dapat dilakukan dengan beberapa cara berikut:
- Baca Ketentuan Penggunaan
Ketahui batasan dan kebijakan layanan sebelum memakai AI. Jika bertentangan dengan etika hakim, sebaiknya dihindari. - Gunakan Akun Anonim
Gunakan identitas acak agar penyedia layanan tidak mengaitkan identitas pengguna dengan data perkara. Selain itu, gunakan juga opsi pengecualian dalam melakukan perekaman data jika disediakan oleh penyedia. - Hindari Mengunggah Dokumen Persidangan
Dokumen persidangan baik sebagian maupun seluruhnya yang dimasukkan, bisa masuk ke dalam basis data AI dan dapat muncul dalam sesi lain. - Bangun AI Internal Sendiri
Masalah etika bukan pada teknologinya, melainkan pada siapa yang mengendalikannya. Lembaga peradilan sebaiknya membangun sistem AI sendiri, dengan jaminan keamanan dan kontrol terhadap data yang diproses. OpenLLM menjadi salah satu AI yang dapat dibangun dengan sumber daya internal. - Jadikan AI Sebatas Rekan Diskusi
Kelebihan AI ada pada basis datanya, semakin banyak basis datanya maka semakin luas pemahamannya. Namun diantara seluruh kelebihan itu, masih dimungkinkan terdapat kekeliruan dalam pemahaman yang dirangkai oleh AI. Itu artinya, AI tidak dapat digunakan untuk menggantikan kecerdasan murni. Meskipun demikian, seluruh pemahaman yang dimiliki oleh AI dapat dimanfaatkan dalam nuansa rekan diskusi.
Sebagai rekan diskusi, AI dapat digunakan untuk men-challenge logika hakim sebelum penyampaian pendapat ketika bermusyawarah. AI dapat juga digunakan untuk menjabarkan dasar hukum, itupun dengan verifikasi penuh oleh hakim. Rekan diskusi berbasis AI ini, selama anonimitas hakim terjaga, dapat menjadi gaya baru sebagai bahan musyawarah-penyusunan putusan hakim. AI secara umum tidak memiliki kepentingan untuk memberikan pendapat/penilaian, sehingga lebih netral dalam memberikan sudut pandang tertentu.
Penutup
AI memberikan banyak peluang untuk efisiensi kerja,
namun dalam konteks penyusunan putusan oleh hakim, kehati-hatian menjadi hal
yang mutlak. Etika, kerahasiaan, dan tanggung jawab profesi tetap menjadi pilar
utama yang tidak boleh dikompromikan.
Baca Juga: Hakim di Era AI: Menuju Badan Peradilan Yang Agung dan Modern Indonesia
Referensi
- Gugerty, Leo.
(2006). Newell and Simon's Logic Theorist: Historical Background and Impact on
Cognitive Modeling. Proceedings of the Human Factors and Ergonomics Society
Annual Meeting. 50. 880-884. 10.1177/154193120605000904.
- Surat Keputusan
Ketua Mahkamah Agung Nomor 359/KMA/SK/XII/2022
- https://openai.com/policies/privacy-policy/
- https://openai.com/policies/row-terms-of-use/
Untuk Mendapatkan Berita Terbaru Dandapala Follow Channel WhatsApp Ganis Badilum MA RI: Ganis Badilum