Advertisements

Kode Moral sistem kecerdasan buatan

Oleh: Ricky Suwarno

15 april 2019

Baru- baru ini, Komisi Eropa mengeluarkan pedoman etik atau kode moral tentang pengembangan sistem kecerdasan buatan alias AI. Kode moral ini dirancang oleh Kelompok pakar Uni Eropa untuk Kecerdasan Buatan.

Kelompok pakar ini didirikan pada tahun 2018. Terdiri dari 52 ahli independen di bidang akademik, industri, dan masyarakat sipil. Tugas mereka adalah menulis kode etik kecerdasan buatan. Memberikan kebijakan dan saran investasi kepada UE di bidang teknologi ini.

Kode etik baru ini menunjukkan, bahwa kecerdasan buatan yang bisa diandalkan harus memenuhi tujuh elemen seperti dibawah. Pertama, Pastikan mobilitas dan pengawasan manusia. Sistem kecerdasan buatan harus mendukung inisiatif manusia. Dan hak-hak dasar. Dan bukannya mengurangi, membatasi atau salah mengarahkan pemerintahan oleh manusia sendiri.

Kedua, algoritma kecerdasan buatan harus cukup aman. Bisa diandalkan, dan stabil berkelanjutan.

Ketiga, Dalam manajemen privasi dan data, manusia harus memiliki kontrol penuh atas data mereka sendiri. Dan data yang relevan secara pribadi tidak boleh digunakan untuk membahayakan atau mendiskriminasi manusia yang lain.

Keempat, Untuk transparansi, sistem kecerdasan buatan harus dapat dilacak.

Kelima, Sistem kecerdasan buatan harus memperhitungkan jangkauan kemampuan dan keterampilan manusia, yang beraneka ragam. Tidak boleh ada unsur diskriminatif. Dan harus adil.

Keenam. Sistem kecerdasan buatan harus berkontribusi pada keberlanjutan manusia, dan harus memikul tanggung jawab secara ekologis.

Ketujuh, Sistem kecerdasan buatan harus memiliki mekanisme pertanggungjawaban. Dan bertanggung jawab atas konsekuensinya sendiri.

Sikap pejabat Uni Eropa sangat jelas, bahwa etika kecerdasan buatan tidak boleh menjadi fitur mewah atau fungsi lampiran. Karena hanya ketika orang mempercayai teknologi, masyarakat baru dapat sepenuhnya memperoleh manfaat dari teknologi.

Selanjutnya, Uni Eropa berharap untuk mempromosikan pengembangan kecerdasan buatan yang bisa diandalkan melalui langkah seperti, mengembangkan persyaratan utama. Memulai pilot skala besar tentang AI. Dan membangun konsensus internasional tentang “kecerdasan buatan yang berpusat pada manusia”.

So, just like grandma says, seperti komentar Media teknologi AS “The Verge” Uni Eropa ingin menjadi pemimpin di bidang “etika atau moralitas kecerdasan buatan”. Alasan utama, karena dalam hal investasi, dan penelitian serta teknologi pengembangan kecerdasan buatan, UE tidak mampu lagi bersaing dengan AS, terutama China.

Oleh karena itu, mereka memilih untuk membentuk masa depan teknologi melalui etika dan moral. Dimana menurut saya, UE hanya menekankan keberadaannya dalam teknologi baru ini. Di mana sebenarnya, Mereka tidak punya hak suara dalam AI. Karena hak suara selalu di pegang oleh negara dengan kemampuan teknologi maupun pasar ini.

Advertisements
Categories: artificial intelligence indonesia, kode moral kecerdasan buatan, Sistem kecerdasan BuatanTags: , , , , , ,

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d bloggers like this: