Governance of Superintelligence: AI, Pelayanan Publik, dan Bias Mesin

SELASWARA.COM — Salah satu wacana yang paling baru adalah penggunaan mesin dalam tata kelola masyarakat atau yang diistilahkan sebagai Governance of Superintelligence. Pemerintahan yang berada dibawah otoritas Kecerdasan Buatan atau AI. Saya pertama-tama bukan ahli komputer. Esai ini adalah apa yang saya tangkap mengenai wacana tentang tata kelola masyarakat yang diklaim adil melalui perantara mesin.

Saat Alan Turing mempublikasikan makalahnya yang berjudul “Computing Machinery and Intelligence” yang diterbitkan pada tahun 1950, Turing mengajukan tes yang disebut Tes Turing untuk mengukur kecerdasan mesin.

Tes ini melibatkan seorang manusia yang terlibat dalam percakapan teks dengan dua partisipan lainnya, satu manusia dan satu mesin. Jika manusia tidak dapat membedakan antara mesin dan manusia, maka mesin tersebut dianggap telah lulus Tes Turing.

Turing percaya bahwa Tes Turing adalah tes yang berguna untuk mengukur kecerdasan mesin, tetapi ia juga menyadari bahwa tes ini memiliki keterbatasan. Tes ini tidak mengukur semua aspek kecerdasan manusia, seperti kemampuan untuk merasakan emosi atau memahami dunia fisik. Makalah ini menempatkan Turing sebagai pelopor kecerdasan buatan (AI).

Lantas bagaimana munculnya wacana Governance Of Superintelligence atau pengambilan keputusan publik di bawah otoritas AI? Tentu wacana ini tidak muncul begitu saja karena kegelisahan tentang keputusan yang tidak dirasa adil dari tata kelola sistem pemerintahan di bawah spesies homo sapien. Jawabannya publikasi dari kanal blog OpenAI bertajuk “Governance Of Superintelligence”. Hal yang menggerakan saya untuk menuliskan ini dan mari kita sisihkan dulu derama basi sang CEO.

Governance Of Superintelligence menurut OpenAI

Pada 22 Mei 2023, CEO Open AI, Sam Altman bersama Greg Brockman dan Ilya Sutskever menulis blog di situs resmi OpenAI tentang Governance Of Superintelligence.  Tulisan ini menarik perhatian saya saat OpenAI menggulirkan wacana liar ini. OpenAI adalah organisasi riset AI, perusahan di balik ChatGPT.

Dalam tulisan tersebut ada pengembangan pemikiran awal tentang tiga aspek kunci dari tata kelola super inteligensi. Pertama, koordinasi di antara upaya pengembangan terkemuka untuk memastikan pengembangan superintelligence terjadi dengan cara yang mempertahankan keselamatan dan integrasi yang mulus dengan masyarakat. Kedua, kemampuan teknis untuk membuat super inteligensi aman. Ini adalah pertanyaan penelitian terbuka yang membutuhkan upaya besar dari para peneliti dan organisasi. Ketiga, institusi baru untuk tata kelola dan memecahkan masalah keselarasan super inteligensi.

Bagaimana kita memastikan sistem AI yang jauh lebih pintar dari manusia mengikuti niat manusia? Saat ini, kita tidak memiliki solusi untuk mengarahkan atau mengontrol AI yang potensial super inteligensi dan mencegahnya menjadi liar. Demikianlah wacana superintelligence yang di gulirkan OpenAI. Lantas seperti apa prakteknya?

Bias Manusia atau Mesin

Bias dalam pembelajaran mesin adalah masalah yang harus dipertimbangkan karena ia mengganggu keputusan atau prediksi yang diberikan oleh mesin. Bias ini mungkin disebabkan oleh data yang tidak seimbang atau orang-orang yang terlibat dalam pembuatan model. Bias dalam pembelajaran mesin dapat menyebabkan kesalahan dalam hasil model, yang mungkin mengganggu bisnis atau kebijakan .

Superintelligence diklaim sebagai kecerdasan buatan yang mampu melebihi kecerdasan manusia dalam semua aspek. Kecerdasan ini memiliki potensi untuk merevolusi berbagai bidang kehidupan, termasuk pelayanan publik.

Pemerintah dapat memanfaatkan superintelligence untuk meningkatkan efisiensi dan efektivitas pelayanan publik. Misalnya, superintelligence dapat digunakan untuk mengotomatiskan tugas-tugas administratif, seperti memproses aplikasi dan memberikan layanan pelanggan. Selain itu, superintelligence dapat digunakan untuk membuat keputusan yang lebih akurat dan adil, seperti menentukan kelayakan penerima bantuan sosial. Ide-ide ini telah dipraktekan di Dunia.

Namun, penggunaan superintelligence dalam pelayanan publik juga menimbulkan tantangan, salah satunya adalah bias mesin. Bias mesin adalah kecenderungan mesin untuk menghasilkan hasil yang tidak tepat, tidak adil, bahkan diskriminatif baik kelas atau ras. Bias ini dapat terjadi karena berbagai faktor, seperti data pelatihan mesin yang tidak representatif atau algoritma mesin yang tidak adil dan bias manusia.

Bias mesin dapat berdampak negatif terhadap pelayanan publik. Misalnya, bias mesin dapat menyebabkan diskriminasi terhadap kelompok tertentu, seperti kelompok minoritas atau kelompok rentan. Hal ini dapat melanggar hak asasi manusia dan menimbulkan ketidakpuasan publik.

Super Intelligent sekarang jadi bahan jualan dimana-mana karena dianggap lebih baik dari manusia. Namun, sebuah penelitian mengenai sistem ini menimbulkan  polemik di Belanda, setelah uji coba yang dilakukan menghasilkan kesimpulan adanya ketimpangan atau bias. Berikut temuan dari laporan investigasi Bias Mesin: dalam sebuah investigasi

AI telah menunjukkan tanda-tanda bias yang mengkhawatirkan, sehingga menimbulkan pertanyaan apakah sebuah mesin bisa menjadi rasis. Meskipun sains, teknologi, dan matematika dianggap netral, sistem AI telah menunjukkan bias gender dan ras. Sebagai contoh, perangkat lunak pengenal wajah telah berjuang untuk mengenali wajah-wajah kulit hitam, dan sistem AI telah gagal mengklasifikasikan dengan benar wajah-wajah wanita kulit hitam yang menonjol. Bias ini dapat menyebabkan diskriminasi, yang secara tidak proporsional berdampak pada komunitas yang telah atau sedang menghadapi penindasan

Akar dari bias AI terletak pada data yang digunakan untuk melatihnya, yang mencerminkan bias masyarakat yang menciptakannya. Meskipun ada alasan untuk optimis dalam mengatasi masalah ini, seperti upaya untuk membangun sistem AI yang etis dan inklusif, sangat penting untuk mengenali dan mengurangi bias yang ada dalam AI untuk mencegah kerusakan yang meluas.

Kasus Bias Mesin dalam Hukum Pidana

Sementara dalam laporanProPublica.org, mengenai risiko pembelajaran mesin dalam asesmen hukum pidana.  ProPublica melakukan studi terkait skor risiko yang diberikan kepada lebih dari 7.000 orang yang ditangkap di Broward County, Florida, pada 2013 dan 2014. Mereka memeriksa berapa banyak yang dituduh melakukan kejahatan baru dalam dua tahun berikutnya, menggunakan patokan yang sama dengan pencipta algoritma tersebut.

Studi ini menyoroti bias rasial dalam formula yang digunakan oleh pengadilan dan dewan pembebasan bersyarat untuk memprediksi tingkat kejahatan di masa depan. Mereka menemukan disparitas rasial, di mana terdakwa kulit hitam dua kali lebih mungkin untuk disalah labeli sebagai risiko tinggi, sementara terdakwa kulit putih yang dinilai risiko rendah justru lebih mungkin dituntut karena kejahatan baru

Algoritma untuk memprediksi residivis (kemungkinan kembali kejahatan) umum digunakan untuk menilai kemungkinan seorang terdakwa pidana untuk melakukan kejahatan. Prediksi ini digunakan dalam pengambilan keputusan terkait hukuman dan pembebasan awal.

Dalam tulisan panjang datasociety.net  “Machine Bias: Risk Assessments in Criminal Sentencing”, membahas penggunaan algoritma penilaian risiko dalam sistem peradilan pidana. Artikel ini menyoroti potensi bias dalam algoritma ini dan implikasinya bagi terdakwa. Kemudian, mengangkat keprihatinan tentang kurangnya transparansi dalam penggunaan penilaian risiko dan potensi hasil yang tidak adil, terutama dalam kaitannya dengan bias rasial.

Artikel ini juga menyebutkan penggunaan alat penilaian risiko dalam menjatuhkan hukuman dan terbatasnya kemampuan terdakwa untuk menentang hasilnya. Diskusi seputar keadilan dan akurasi dalam memprediksi residivisme juga menjadi fokus utama dari artikel ini.

Penggunaan algoritma semacam itu dalam menginformasikan keputusan tentang hukuman dan pembebasan dini juga disorot, bersama dengan potensi efek yang luas pada kehidupan individu. Artikel ini merujuk pada penelitian yang menunjukkan keniscayaan bias dalam skor risiko kriminal dan kesenjangan rasial yang ditemukan dalam penggunaan algoritma ini.

Temuan ini memberikan perspektif kritis tentang penggunaan algoritma penilaian risiko dalam sistem peradilan pidana, yang menekankan perlunya transparansi, keadilan, dan akuntabilitas dalam penggunaannya.

Laporan ini akan memberikan pemahaman yang lebih mendalam tentang isu-isu seputar bias mesin dalam peradilan pidana.

Investigasi Mesin Kecurigaan

Laporan investigasi bertajuk “Suspicion Machine Methodology” adalah investigasi yang dilakukan oleh Lighthouse Reports terhadap penggunaan sistem penilaian risiko algoritmik di Rotterdam untuk mengotomatiskan penilaian risiko bagi warga negara yang mencari layanan pemerintah. Investigasi ini melibatkan akses ke data pelatihan, file model, dan kode untuk sistem yang digunakan oleh lembaga pemerintah.

Model yang digunakan oleh Rotterdam adalah Gradient Boosting Machine (GBM) yang dilatih dengan kumpulan data dari investigasi sebelumnya terhadap penipuan kesejahteraan. Proyek di GitHub (platform kolaborasi online yang berbasis cloud) berisi kode sumber untuk investigasi tersebut, termasuk model yang digunakan dan hasil eksperimen yang dilakukan.

Investigasi ini bertujuan untuk menunjukkan bagaimana sistem secara sistematis menghasilkan kecurigaan terhadap kelompok rentan dan untuk mengeksplorasi dampak dari atribut penerima manfaat terhadap skor risiko mereka.

Investigasi ini mengungkapkan bahwa penerima bantuan sosial di sebuah kota besar di Eropa ditandai sebagai risiko penipuan dan ditempatkan di bawah penyelidikan oleh sistem otomatis yang menilai kehidupan mereka berdasarkan berbagai faktor, yang mengarah pada potensi diskriminasi dan pengawasan.

Temuan dan metodologi proyek ini telah dibagikan untuk memberikan transparansi dan agar orang lain dapat belajar dari wawasan yang diperoleh melalui investigasi tersebut.

Investigasi “Suspicion Machine Methodology” merupakan bagian dari upaya Lighthouse Reports untuk meminta pertanggungjawaban sistem algoritmik dan untuk menjelaskan dampak sistem tersebut terhadap kelompok rentan. Investigasi ini telah ditampilkan di berbagai publikasi, dan kode sumber serta hasil proyek ini tersedia di GitHub untuk direplikasi dan dianalisis lebih lanjut.

Praktik Tata Kelola Masyarakat dengan AI di Indonesia

Badan Pengkajian dan Penerapan Teknologi (BPPT)  merilis panduan “Strategi Nasional Kecerdasan Buatan Indonesia 2020-2045” sebagai referensi untuk pemanfaatan kecerdasan buatan di Indonesia. Tercatat bahwa Indonesia sedang mempertimbangkan kematangan pemanfaatan AI di dalam masyarakatnya dan sedang mengevaluasi apakah pendekatan tata kelola AI harus selaras dengan Amerika Serikat dan Uni Eropa, mengingat tahap adopsi teknologi di Indonesia saat ini.

Sementara, Kementerian Pendayagunaan Aparatur Negara dan Reformasi Birokrasi (PANRB) mengadakan “Webinar  Pengembangan dan Pemanfaatan AI untuk Digital Government” secara virtual pada 10 Maret 2023. PANRB membahas bagaimana kecerdasan buatan dapat digunakan untuk mempercepat pelayanan publik yang disediakan oleh pemerintah. Acara ini menyoroti bahwa layanan digital berbasis AI dapat membantu dalam menyediakan pengelolaan lingkungan yang berkelanjutan dan dapat menjadi solusi untuk mempercepat layanan publik berbasis digital.

Ombudsman RI telah mengembangkan Kalkulator Pelayanan Publik  dengan pemanfaatan generatif AI sebagai inovasi untuk mendukung keterbukaan informasi publik. Aplikasi ini memungkinkan para penyelenggara pelayanan publik atau bahkan masyarakat untuk mengetahui status kualitas layanan yang ada pada penyelenggara pelayanan publik mereka, hanya dengan memasukkan beberapa elemen penilaian kualitas pelayanan yang digunakan pada penilaian Survei Kepatuhan atau Penilaian Penyelenggaraan Pelayanan Publik.

Apa Saja Tantangan Tata Kelola dan Pengembangan AI di Indonesia? Menurut Nindhitya Nurmalitasari, seorang analis di Kementerian Komunikasi dan Informatika, menyoroti bahwa tata kelola AI melibatkan kompleksitas di luar privasi dan keamanan data pribadi, yang meluas ke sektor-sektor lain. Sementara, Wakil Menteri Komunikasi dan Informatika, Nezar Patria juga menekankan perlunya tata kelola AI untuk memastikan pemanfaatannya yang aman.

Artinya para pemangku kebijakan di Indonesia menghadapi beberapa tantangan dalam tata kelola AI, termasuk privasi, keamanan data, keamanan siber, dan kekayaan intelektual.

Era Singularitas AI

Tibalah kita pada pemberhentian terakhir dari wacana dan praktik AI pada tata kelola masyarakat baik yang mencakup global dan regional. Saya ingin merefleksikan pikiran “Singularitas Teknologi” oleh Vernor Vinge. Esai ini membahas percepatan kemajuan teknologi dan penciptaan entitas yang akan segera terjadi dengan kecerdasan yang lebih tinggi dari manusia.

Sementra, Singularitas AI menyatakan bahwa kecerdasan buatan (AI) akan berkembang pesat dalam waktu singkat dan akhirnya melampaui kecerdasan manusia. Hal ini dapat menyebabkan perubahan dramatis pada masyarakat dan peradaban manusia.

Ada beberapa kemungkinan skenario yang dapat terjadi setelah singularitas AI. Salah satu kemungkinan adalah bahwa AI akan menjadi begitu cerdas sehingga akan menciptakan dunia baru yang tidak dapat dipahami oleh manusia. Skenario lain adalah bahwa AI akan bergabung dengan umat manusia dan menciptakan peradaban baru yang lebih maju.

Tidak jelas apakah ledakan kecerdasan yang menghasilkan singularitas akan bermanfaat atau berbahaya, atau bahkan menjadi ancaman eksistensial, tapi maukah kita patuh pada keputusan-keputusan AI?

Pandangan yang diungkapkan dalam artikel ini adalah milik penulis dan tidak mencerminkan sikap editorial Selaswara.