Kemajuan Jaman! Akankah keadilan bertahan di era AI?

Kemajuan Jaman! Akankah keadilan bertahan di era AI?

Halo Sobat Teknokrat – Hollywood memiliki gagasan penuh warna tentang kecerdasan buatan (AI). Gambaran yang populer adalah masa depan di mana pasukan robot secara spontan berubah menjadi kedengkian, menempatkan umat manusia dalam pertempuran melawan kepunahan.

Pada kenyataannya, risiko yang ditimbulkan oleh AI saat ini lebih berbahaya dan sulit untuk diurai. Mereka sering kali merupakan produk sampingan dari aplikasi teknologi yang tampaknya tak ada habisnya dalam masyarakat modern dan peran yang semakin meningkat dalam kehidupan sehari-hari, mungkin paling baik disorot oleh investasi multi-miliar dolar terbaru Microsoft ke dalam OpenAI pembuat ChatGPT.

Apa pun itu, tidak mengherankan jika AI menimbulkan begitu banyak perdebatan, paling tidak tentang bagaimana kita dapat membangun perlindungan regulasi untuk memastikan kita menguasai teknologi, daripada menyerahkan kendali pada mesin.

Saat ini, kami menangani AI menggunakan hukum dan peraturan tambal sulam, serta pedoman yang tidak memiliki kekuatan hukum. Dengan latar belakang ini, jelas bahwa kerangka kerja saat ini cenderung berubah – mungkin secara signifikan.

Jadi, pertanyaan yang menuntut jawaban: apa yang akan terjadi di masa depan untuk teknologi yang dirancang untuk mengubah dunia?

Baca Juga : Mengenal Lebih Dalam Tentang Artificial Intelligence

Dilema etika

Karena penerapan alat bergaya AI menyebar dengan cepat ke seluruh industri, kekhawatiran pasti muncul tentang kemampuan sistem ini untuk secara merugikan – dan tidak dapat diprediksi – memengaruhi nasib seseorang.

Seorang kolega baru-baru ini mengamati bahwa ada peningkatan apresiasi di kalangan bisnis dan regulator tentang potensi dampak sistem AI terhadap hak dan kesejahteraan individu.

Kesadaran yang berkembang ini membantu mengidentifikasi risiko, tetapi kami belum memasuki periode di mana ada konsensus tentang apa yang harus dilakukan. Mengapa? Dalam banyak kasus, karena risiko tersebut selalu berubah dan sulit diramalkan.

Seringkali, alat yang sama yang digunakan untuk tujuan yang tidak berbahaya dapat digunakan untuk niat jahat. Ambil pengenalan wajah; teknologi yang sama untuk menerapkan filter lucu di media sosial dapat digunakan oleh rezim yang menindas untuk membatasi hak warga negara.

Singkatnya, risiko tidak hanya ditanggung oleh teknologi, tetapi juga dari penerapannya. Dan dengan teknologi seperti AI, di mana jumlah aplikasi baru tumbuh secara eksponensial, solusi yang cocok untuk hari ini mungkin tidak cocok untuk besok.

Contoh yang menonjol adalah skema Robodebt Pemerintah Australia, yang menggunakan algoritme AI yang tidak canggih yang secara otomatis, dan dalam banyak kasus secara keliru, mengirimkan pemberitahuan utang kepada penerima kesejahteraan yang ditentukan telah menerima kelebihan pembayaran.

Dimaksudkan sebagai latihan penghematan biaya, upaya terus-menerus untuk memulihkan hutang yang tidak terhutang, atau dihitung secara tidak benar, membuat banyak orang meningkatkan kekhawatiran atas dampak skema tersebut terhadap kesehatan fisik dan mental penerima pemberitahuan hutang.

Tambahkan ke ini komplikasi lebih lanjut dari sistem AI ‘kotak hitam’, yang dapat menyembunyikan proses atau menyimpulkan pola yang tidak dapat dipahami, sehingga sangat sulit untuk menjelaskan kepada individu bagaimana atau mengapa alat AI menghasilkan suatu hasil. Tanpa transparansi ini, kemampuan untuk mengidentifikasi dan menentang hasil akan berkurang, dan cara apa pun untuk memperbaiki secara efektif ditarik.

Mengisi celah

Komplikasi lainnya adalah bahwa di banyak yurisdiksi, risiko ini tidak ditangani oleh satu undang-undang atau peraturan terkait AI. Mereka malah tunduk pada tambal sulam undang-undang yang ada yang mencakup bidang-bidang seperti ketenagakerjaan, hak asasi manusia, diskriminasi, keamanan data, dan privasi data.

Meskipun tidak ada yang secara khusus menargetkan AI, mereka masih dapat digunakan untuk mengatasi risikonya dalam jangka pendek hingga menengah. Namun, dengan sendirinya, mereka tidak cukup.

Sejumlah risiko berada di luar undang-undang dan peraturan yang ada ini, jadi sementara pembuat undang-undang mungkin bergulat dengan konsekuensi AI yang luas, badan industri lain dan kelompok lain mendorong penerapan panduan, standar, dan kerangka kerja – beberapa di antaranya mungkin menjadi standar praktek industri bahkan tanpa penegakan hukum.

Salah satu ilustrasinya adalah kerangka manajemen risiko AI Institut Standar dan Teknologi Nasional AS, yang dimaksudkan “untuk penggunaan sukarela dan untuk meningkatkan kemampuan untuk memasukkan pertimbangan kepercayaan ke dalam desain, pengembangan, penggunaan, dan evaluasi produk, layanan, dan sistem”.

Demikian pula, komite teknis bersama Organisasi Internasional untuk Standardisasi (ISO) untuk AI saat ini sedang bekerja untuk menambah 16 standar tidak mengikatnya dengan lebih dari dua puluh lagi yang belum diterbitkan.

Fokus saat ini dari banyak inisiatif seputar penggunaan AI secara etis adalah pada keadilan. Bias adalah salah satu elemen yang sangat penting. Algoritme di pusat pengambilan keputusan AI mungkin bukan manusia, tetapi mereka masih dapat menyerap prasangka yang mewarnai penilaian manusia.

Untungnya, para pembuat kebijakan di UE tampaknya sadar akan risiko ini. Rancangan Undang-Undang Kecerdasan Buatan UE membahas berbagai masalah tentang bias algoritmik, dengan alasan bahwa teknologi harus dikembangkan untuk menghindari terulangnya “pola diskriminasi historis” terhadap kelompok minoritas, terutama dalam konteks seperti perekrutan dan keuangan.

Diharapkan banyak yurisdiksi lain akan menangani masalah ini secara langsung dalam undang-undang AI di masa mendatang, meskipun pandangan tentang cara menyeimbangkan regulasi dan inovasi dalam praktiknya sangat berbeda dari satu negara ke negara lain.

Perlombaan untuk mengatur

Yang menarik adalah bagaimana UE terlihat menempatkan hak-hak warga negaranya sebagai pusatnya, berbeda dengan pendekatan laissez-faire terhadap teknologi dan regulasi yang biasanya diadopsi di AS.

Komisi Eropa selanjutnya melengkapi draf Undang-Undang pada bulan September 2022, dengan proposal untuk Arahan Kewajiban AI dan Arahan Kewajiban Produk yang direvisi yang akan merampingkan klaim kompensasi di mana individu menderita kerusakan terkait AI, termasuk diskriminasi.

Sebagai perbandingan, beberapa komentator berpendapat bahwa saat ini tidak jelas ke mana Inggris ingin pergi. Keinginan untuk menjadi pemimpin global dalam regulasi AI belum benar-benar terwujud, sebagian karena ketegangan yang melekat antara deregulasi setelah Brexit dan membawa negara lain bersama kami dengan membuat regulasi Inggris.

Namun, ada beberapa tanda Inggris mencari kepemimpinan global di ruang ini. Kantor Komisaris Informasi (ICO) baru-baru ini mendenda bisnis perangkat lunak Clearview AI £ 7,5 juta setelah perusahaan memasukkan gambar online individu ke dalam basis data global untuk alat pengenalan wajah yang agak kontroversial.

Clearview sejak meluncurkan banding. Namun, selain menggarisbawahi meningkatnya fokus untuk melindungi penggunaan bahkan data biometrik yang tersedia untuk umum, tindakan ICO mengirimkan pesan yang jelas ke pasar: regulator Inggris akan bertindak cepat untuk mengatasi risiko AI jika dianggap perlu.

Keluar dari kotak

Lima tahun ke depan kemungkinan besar akan menandai fase implementasi di mana panduan lunak berubah menjadi hukum keras, berpotensi membangun kemajuan yang telah dibuat melalui prinsip AI OECD dan Rekomendasi UNESCO tentang Etika AI. Tetapi banyak pengamat mengharapkannya jauh lebih lama sebelum munculnya sesuatu yang menyerupai kerangka kerja AI global yang komprehensif.

Sebanyak beberapa orang di industri akan kecewa dengan pengawasan yang mengganggu dari pembuat kebijakan, karena apresiasi individu terhadap implikasi etis dari teknologi berkembang bersamaan dengan penerapannya, sulit untuk melihat bagaimana bisnis dapat mempertahankan kepercayaan publik tanpa peraturan AI yang kuat dan dipertimbangkan. .

Sementara itu, diskriminasi dan bias akan terus menarik perhatian dalam menunjukkan risiko paling cepat dari penerapan teknologi ini tidak hanya dengan niat buruk, tetapi hanya kurangnya ketekunan di sekitar konsekuensi yang tidak diinginkan.

Tetapi faktor-faktor tersebut pada akhirnya hanyalah potongan dari teka-teki yang jauh lebih besar. Industri, regulator, dan penasihat profesional menghadapi bertahun-tahun untuk menyatukan gambaran lengkap tentang risiko hukum dan etika jika kita ingin tetap menguasai teknologi ini, dan bukan sebaliknya.

[ad_2]

4 thoughts on “Kemajuan Jaman! Akankah keadilan bertahan di era AI?

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *