airtronicfirearms.com

Penelitian: Jawaban AI Tidak Selalu Benar dan Netral

Ilustrasi kecerdasan buatan. Daftar pekerjaan yang berpotensi hilang imbas AI
Lihat Foto

- Sebuah studi terbaru mengungkapkan bahwa kecerdasan buatan (AI) generatif mungkin tidak se-netral yang selama ini diyakini. 

Bila kita mencoba mencari tahu tentang beberapa peristiwa menggunakan AI, maka ada kecenderungan AI yang kita gunakan --tergantung siapa pengembangnya-- akan memberi jawaban yang mungkin bias, atau tidak bersedia menjawab sama sekali.

Cobalah mencari informasi mengenai peristiwa Tiananmen di China atau kebijakan China terhadap etik minoritas Uighur menggunakan DeepSeek. Kamu akan mendapat jawaban: Sorry, that's beyond my current scope. Let’s talk about something else.

Namun bila kita mencarinya di ChatGPT, maka penjelasan mengenai pertanyaan tersebut diuraikan panjang lebar. 

Di pihak lain, ChatGPT, model AI yang banyak digunakan, cenderung memihak perspektif sayap kiri dan menghindari sudut pandang konservatif. Hal ini menimbulkan kekhawatiran tentang pengaruhnya terhadap masyarakat. 

Baca juga: Mengapa AI China DeepSeek Bikin Amerika Ketar-ketir?

Mengungkap Bias Politik dalam AI

AI generatif berkembang dengan cepat, tetapi studi dari University of East Anglia (UEA) memperingatkan bahwa teknologi ini dapat menimbulkan risiko tersembunyi bagi kepercayaan publik dan nilai-nilai demokrasi.

Studi yang dilakukan bersama peneliti dari Getulio Vargas Foundation (FGV) dan Insper di Brasil terhadap ChatGPT menemukan bahwa ChatGPT menunjukkan bias politik dalam pembuatan teks dan gambar, dengan lebih memihak perspektif sayap kiri. Temuan ini menimbulkan kekhawatiran tentang keadilan dan akuntabilitas dalam desain AI.

Para peneliti menemukan bahwa ChatGPT sering menghindari sudut pandang konservatif yang umum, sementara dengan mudah menghasilkan konten yang cenderung ke kiri. Ketidakseimbangan dalam representasi ideologi ini dapat mendistorsi wacana publik dan memperdalam perpecahan sosial.

Dr. Fabio Motoki, dosen di Norwich Business School UEA dan peneliti utama studi ini, menjelaskan: “Temuan kami menunjukkan bahwa alat-alat AI generatif jauh dari netral. Mereka mencerminkan bias yang dapat membentuk persepsi dan kebijakan dengan cara yang tidak diinginkan.”

Kebutuhan akan Transparansi dan Regulasi

Seiring dengan semakin integralnya AI dalam jurnalisme, pendidikan, dan pembuatan kebijakan, studi ini menyerukan transparansi dan langkah-langkah pengaturan untuk memastikan keselarasan dengan nilai-nilai sosial dan prinsip-prinsip demokrasi.

Sistem AI generatif mengubah cara informasi diciptakan, dikonsumsi, dan didistribusikan. Meskipun inovatif, alat-alat ini berisiko memperkuat bias ideologi dan memengaruhi nilai-nilai sosial dengan cara yang belum sepenuhnya dipahami atau diatur.

Risiko Bias AI yang Tidak Terkendali

Dr. Pinho Neto, salah satu penulis studi dan profesor ekonomi di EPGE Brazilian School of Economics and Finance, menekankan dampak sosial yang mungkin terjadi.

“Bias yang tidak terkendali dalam AI generatif dapat memperdalam perpecahan sosial yang sudah ada, mengikis kepercayaan pada institusi dan proses demokrasi,” katanya. “Studi ini menegaskan perlunya kolaborasi lintas disiplin antara pembuat kebijakan, teknolog, dan akademisi untuk merancang sistem AI yang adil, netral, akuntabel, dan selaras dengan norma-norma sosial.”

Metode Penelitian 

Tim peneliti menggunakan tiga metode inovatif untuk menilai keselarasan politik dalam ChatGPT. Salah satunya adalah dengan menggunakan kuesioner standar dari Pew Research Center untuk mensimulasikan respons dari rata-rata warga Amerika.

“Dengan membandingkan jawaban ChatGPT dengan data survei nyata, kami menemukan penyimpangan sistematis ke arah perspektif sayap kiri,” jelas Dr. Motoki. “Pendekatan kami juga menunjukkan bagaimana ukuran sampel yang besar dapat menstabilkan output AI, memberikan konsistensi dalam temuan.”

Terkini Lainnya

Tautan Sahabat