5 Pedoman Salesforce Penggunaan Bias AI

5 Pedoman Salesforce Penggunaan Bias AI

 32,504 total views,  6 views today

Penciptaan robot Adam
Gambar: PayPau/Adobe Stock

Halo Sobat Teknokrat – Salesforce, yang tahun lalu memperkenalkan kerangka AI Einstein di belakang platform Pelanggan 360, telah menerbitkan apa yang dikatakannya sebagai yang pertama di industri Panduan untuk AI Generatif Tepercaya. Ditulis oleh Paula Goldman, kepala petugas penggunaan etika dan manusiawi, dan Kathy Baxter, arsitek utama AI etis di perusahaan, panduan ini dimaksudkan untuk membantu organisasi memprioritaskan inovasi yang digerakkan oleh AI seputar etika dan akurasi — termasuk di mana kebocoran bias dapat muncul dan bagaimana menemukan dan membakar mereka.

Baxter, yang juga menjabat sebagai peneliti AI tamu di Institut Nasional Standar dan Teknologi, mengatakan ada beberapa titik masuk untuk bias dalam pembelajaran mesin model yang digunakan untuk penyaringan pekerjaan, riset pasar, keputusan perawatan kesehatan, aplikasi peradilan pidana, dan lainnya. Namun, dia mencatat, tidak ada cara mudah untuk mengukur apa yang merupakan model yang “aman” atau telah melampaui tingkat bias atau toksisitas tertentu.

Baca Juga : Aplikasi Kesehatan Mental Teratas

Bagaimana mengiris dan memotong data menciptakan model yang bias

“Kami berbicara tentang AI seolah-olah itu homogen, seperti bahan tambahan makanan yang menurut FDA aman di bawah konsentrasi tertentu, tetapi sebenarnya tidak, itu sangat bervariasi,” kata Baxter, mengutip a makalah 2021 oleh peneliti MIT Harini Suresh dan John Guttag yang menggambarkan berbagai cara penggunaan data yang terlalu sempit dalam pengembangan model pembelajaran mesin.

Baxter mengatakan ini dapat menyebabkan lima bahaya dunia nyata.

Bias sejarah

Data historis, bahkan jika “diukur dan diambil sampelnya dengan sempurna”, dapat menyebabkan hasil yang berbahaya, catat makalah MIT. Baxter mengatakan ilustrasi tentang ini akan menjadi data historis akurat yang menunjukkan bahwa orang kulit hitam Amerika telah menghadapi redlining dan standar yang berbeda untuk menerima pinjaman.

“Jika Anda menggunakan data historis untuk memprediksi masa depan, AI akan ‘belajar’ untuk tidak memberikan pinjaman kepada pelamar kulit hitam, karena itu hanya akan mereplikasi masa lalu,” katanya.

Bias representasi

Karena sampel data kurang mewakili beberapa bagian dari populasi, ia gagal untuk menggeneralisasi subset dengan baik.

Baxter mencatat bahwa beberapa model penglihatan dilatih pada data yang dikumpulkan terutama dari AS atau negara-negara Barat gagal karena mereka kehilangan representasi budaya dari negara lain. Model seperti itu mungkin menghasilkan atau menemukan “gaun pengantin” putih, berdasarkan cita-cita estetika Barat, bukan dari, katakanlah, Korea Selatan atau Nigeria.

“Saat mengumpulkan data, Anda harus mempertimbangkan outlier, keragaman populasi, dan anomali,” katanya.

Bias pengukuran

Makalah MIT mencatat bahwa bias ini dihasilkan dari penggunaan pengukuran konkret yang dimaksudkan sebagai perkiraan ide atau konsep yang tidak mudah diamati. Baxter mencatat bahwa algoritme residivisme COMPAS adalah contoh utama dari hal ini: Algoritma ini dirancang untuk membantu penegak hukum memilih pembebasan bersyarat berdasarkan potensi penangkapan ulang.

“Jika Anda berbicara dengan komunitas yang terkena dampak, Anda akan melihat bias yang tidak proporsional seputar siapa yang ditandai sebagai berisiko tinggi dan siapa yang mendapat keuntungan dari keraguan,” katanya. “COMPAS tidak memprediksi siapa yang akan melakukan kembali kejahatan, melainkan siapa yang lebih mungkin ditangkap lagi.”

Bias agregasi

Ini adalah jenis kesalahan generalisasi di mana model “satu ukuran cocok untuk semua” digunakan untuk data dengan kelompok dasar atau jenis contoh yang harus dipertimbangkan secara berbeda, yang mengarah ke model yang tidak optimal untuk kelompok mana pun atau satu. hanya berlaku untuk populasi dominan.

Baxter mencatat bahwa, sementara contoh dalam makalah MIT difokuskan pada analisis media sosial: “Kami melihatnya hadir di tempat lain di mana emoji dan bahasa gaul digunakan dalam lingkungan kerja.”

Dia menunjukkan bahwa kelompok usia, ras, atau afinitas cenderung mengembangkan kata dan makna emoji mereka sendiri: Di ​​TikTok, emoji kursi dan tengkorak datang untuk menandakan bahwa seseorang sedang sekarat karena tawa, dan kata-kata seperti “yas” dan “slay” muncul. untuk membawa makna tertentu dalam kelompok tertentu.

“Jika Anda mencoba menganalisis atau meringkas sentimen di media sosial atau saluran Slack di tempat kerja menggunakan arti yang ditentukan dari emoji atau kata-kata yang digunakan kebanyakan orang, Anda akan salah untuk subkelompok yang menggunakannya secara berbeda,” katanya.

Bias evaluasi

Untuk bias yang muncul ketika data tolok ukur yang digunakan untuk tugas tertentu tidak mewakili populasi, makalah MIT menawarkan pengenalan wajah sebagai contoh, mengutip karya Gebru dan Joy Buolamwini sebelumnya. Pekerjaan ini menunjukkan kinerja algoritma analisis wajah komersial yang jauh lebih buruk pada gambar wanita berkulit gelap. Studi tersebut mencatat bahwa gambar wanita berkulit gelap hanya terdiri dari 7,4% dan 4,4% dari kumpulan data patokan umum.

Rekomendasi untuk menghindari bias dalam model AI

Dalam studi Salesforce, penulis menyebutkan beberapa rekomendasi bagi perusahaan untuk bertahan melawan bias dan menghindari jebakan yang mengintai di kumpulan data dan proses pengembangan ML.

1. Data yang dapat diverifikasi

Pelanggan yang menggunakan model AI sebagai layanan harus dapat melatih model pada data mereka sendiri, dan organisasi yang menjalankan AI harus berkomunikasi ketika ada ketidakpastian tentang kebenaran respons AI dan memungkinkan pengguna untuk memvalidasi respons ini.

Pedoman Salesforce menyarankan bahwa ini dapat dilakukan dengan mengutip sumber, menawarkan penjelasan yang jelas tentang mengapa AI memberikan respons yang diberikannya – atau memberikan area untuk diperiksa ulang – dan membuat pagar pembatas yang mencegah beberapa tugas menjadi otomatis sepenuhnya.

2. Keamanan

Perusahaan yang menggunakan AI harus memitigasi hasil yang berbahaya dengan melakukan penilaian bias, penjelasan dan ketahanan, dan tim merah, sesuai laporan. Mereka harus mengamankan setiap informasi pengenal pribadi dalam data pelatihan dan membuat pagar pembatas untuk mencegah bahaya tambahan.

3. Kejujuran

Saat mengumpulkan data untuk melatih dan mengevaluasi model, organisasi perlu menghargai sumber data dan memastikan bahwa mereka memiliki persetujuan untuk menggunakan data.

“Kita juga harus transparan bahwa AI telah membuat konten ketika dikirimkan secara mandiri,” kata laporan itu.

4. Pemberdayaan

Pengembang AI harus menyadari perbedaan antara proyek AI yang ideal untuk otomatisasi, dan proyek di mana AI harus menjadi anak perusahaan dari agen manusia.

“Kita perlu mengidentifikasi keseimbangan yang tepat untuk ‘meningkatkan’ kemampuan manusia dan membuat solusi ini dapat diakses oleh semua orang,” tulis para penulis.

5. Keberlanjutan

Pedoman menyarankan agar pengguna AI harus mempertimbangkan ukuran dan konsumsi model AI sebagai bagian dari pekerjaan mereka untuk membuatnya akurat guna mengurangi jejak karbon dari kerangka kerja ini.

“Dalam hal model AI, lebih besar tidak selalu berarti lebih baik: Dalam beberapa kasus, model yang lebih kecil dan terlatih lebih baik mengungguli model yang lebih besar dan kurang terlatih,” kata penulis.

Baxter setuju dengan penilaian penulis.

“Anda harus melihat secara holistik saat berpikir tentang membuat AI secara bertanggung jawab sejak awal membuat AI,” kata Baxter. “Apa bias yang datang dengan ide Anda, bersama dengan asumsi yang Anda buat, sepanjang pelatihan, evaluasi pengembangan, penyesuaian halus, dan kepada siapa Anda menerapkannya? Apakah Anda memberikan perbaikan yang tepat ketika Anda salah?”

2 thoughts on “5 Pedoman Salesforce Penggunaan Bias AI

  1. Pingback:Delapan fitur Windows 11 sedang dalam pengembangan - Blog Teknokrat

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan.

Solverwp- WordPress Theme and Plugin

WordPress Appliance - Powered by TurnKey Linux