REPUBLIKA.CO.ID,
Oleh: Setyanavidita Livikacansera
Redaktur Republika
Menjelang pemilihan umum di 14 Februari 2024, masyarakat Indonesia seakan kembali ke orde baru. Di media sosial, Presiden kedua Indonesia, Presiden Soeharto seakan hidup kembali dan mengajak masyarakat untuk memilih Partai Golkar.
'Dihidupkan' kembali berkat teknologi kecerdasan buatan, Presiden Soeharto pun bisa kembali menyemarakkan pemilu. Tapi, pertanyaan tentang etik dalam pemanfaatan AI pun jadi topik tersendiri.
Tak bisa dimungkiri, perkembangan dunia teknologi, terkadang memang lebih cepat dari bagaimana para pengambil keputusan membuat aturan. Tak jarang juga, dengan kompleksnya sebuah teknologi yang kemudian terus berevolusi, aturan yang baru dibuat kemudian menjadi cepat obsolete, atau tak relevan lagi.
Begitu pula dengan pemanfaatan kecerdasan buatan atau AI. Setahun berlalu sejak ChatGPT mengguncang dunia, desakan untuk mengatur teknologi yang satu ini pun terus menggema.
Salah satunya, adalah untuk menetapkan aturan etik dalam pemanfaatan AI. Meskipun AI memberikan berbagai potensi inovatif yang luar biasa, tanpa kerangka etika yang kuat, dampaknya sangat mungkin justru akan menjadi bumerang yang merugikan masyarakat dan individu.
Oleh karena itu, urgensi dalam menerapkan aturan etik terlihat dalam beberapa aspek krusial. Pertama-tama, masalah privasi dan keamanan data menjadi fokus utama.
Teknologi AI sering kali memerlukan akses ke data pribadi untuk memahami dan merespons kebutuhan pengguna. Dengan adanya aturan etik yang jelas, perlindungan privasi pengguna dapat dijamin, mengurangi risiko penyalahgunaan informasi yang sensitif.
Pengguna teknologi yang pertama kali diperkenalkan pada 1956 ini, harus dapat memercayai bahwa data pribadi mereka akan dikelola dengan aman dan bertanggung jawab.
Kedua, dalam konteks pengambilan keputusan otomatis oleh sistem AI, aspek transparansi dan akuntabilitas menjadi sangat penting. Aturan etik harus menuntut agar algoritma AI dapat dijelaskan secara terperinci, dan keputusan yang dihasilkannya dapat dipertanggungjawabkan.
Tidak terbatas hanya masalah teknis, tetapi juga keseimbangan antara inovasi teknologi dan dampaknya terhadap hak-hak individu. Selanjutnya, etika AI juga mencakup pertimbangan terhadap efek sosial.
Implementasi teknologi ini dapat mempengaruhi lapangan pekerjaan, merubah dinamika pasar tenaga kerja, dan menciptakan kesenjangan ekonomi yang lebih besar. Oleh karena itu, aturan etik, idealnya harus mampu merinci strategi untuk memitigasi dampak negatif ini dan memastikan bahwa perkembangan AI memberikan manfaat yang merata kepada masyarakat.
Di sisi lain, dalam aspek keamanan, aturan etik juga diperlukan untuk menghindari potensi penggunaan teknologi AI dalam kegiatan kriminal atau perang siber. Peraturan ini harus mencakup langkah-langkah untuk mencegah penyalahgunaan AI dalam pembuatan senjata otonom atau serangan siber yang merugikan.
Keamanan dalam pemanfaatan teknologi ini menjadi krusial untuk melindungi integritas dan kestabilan sistem. Kemudian, urgensi aturan etik AI juga terkait dengan dampak lingkungan. Pengembangan teknologi ini sering membutuhkan daya komputasi yang besar, meningkatkan jejak karbon dan dampak lingkungan lainnya.
Etika AI harus memasukkan aspek keberlanjutan, memastikan bahwa inovasi tidak merugikan bumi dan masa depan generasi mendatang. Secara keseluruhan, aturan etik tentang pemanfaatan teknologi kecerdasan buatan tidak hanya melibatkan aspek teknis, tetapi juga nilai-nilai kemanusiaan.
Keputusan dan perkembangan dalam bidang ini harus selaras dengan prinsip-prinsip moral yang mendasari keadilan, kebebasan, dan martabat manusia. Dengan adanya aturan etik yang kokoh, kita dapat memastikan bahwa AI menjadi alat positif yang mendorong kemajuan dan kesejahteraan masyarakat global.
Berbagai pertimbangan akan etika pemanfaatan AI ini pula yang digunakan oleh beberapa negara di Eropa. Pada April 2021, Uni Eropa telah memperkenalkan inisiatif yang mencakup peraturan dan pedoman etika AI.
Salah satu langkah utama adalah "Proposal for a Regulation on a European Approach for Artificial Intelligence" yang diajukan oleh Komisi Eropa. Proposal ini mencakup sejumlah prinsip dan aturan untuk memastikan penggunaan AI yang etis dan aman di Uni Eropa.
Beberapa di antaranya adalah pembagian aplikasi AI menjadi tiga kategori risiko (tinggi, sedang, dan rendah) dengan persyaratan dan kewajiban yang sesuai untuk setiap kategori. Hal ini bertujuan memberikan pendekatan yang sesuai dengan tingkat risiko yang terlibat.
Kemudian, ada pula kewajiban dan transparansi yang menekankan pada transparansi untuk sistem AI yang digunakan untuk pengambilan keputusan otomatis. Pengguna harus diberikan informasi tentang bagaimana sistem tersebut beroperasi, dan sistem yang digunakan untuk menghasilkan hasil keputusan otomatis harus dapat dijelaskan.