Bias vs Keadilan vs Penjelasan dalam AI – Menuju AI — Teknologi, Sains, dan Rekayasa Terbaik

Pengarang: Ed Shee

Pembelajaran mesin

Foto oleh Lukas di Unsplash

Selama beberapa tahun terakhir, ada fokus yang berbeda untuk membangun sistem pembelajaran mesin yang, dalam beberapa hal, bertanggung jawab dan etis. Istilah “Bias”, “Fairness” dan “Explainability” muncul di mana-mana tetapi definisi mereka biasanya cukup kabur dan mereka secara luas disalahpahami untuk mengartikan hal yang sama. Blog ini bertujuan untuk menjelaskan…

Bias

Sebelum kita melihat bagaimana bias muncul dalam pembelajaran mesin, mari kita mulai dengan definisi kamus untuk kata tersebut:

“kecenderungan atau prasangka untuk atau terhadap satu orang atau kelompok, terutama dengan cara yang dianggap tidak adil”

Lihat! Definisi bias termasuk kata “tidak adil”. Sangat mudah untuk melihat mengapa istilah bias dan keadilan sering membingungkan satu sama lain.

Bias dapat memengaruhi sistem pembelajaran mesin di hampir setiap tahap. Berikut adalah contoh bagaimana bias historis dari dunia di sekitar kita dapat menyusup ke dalam data Anda:

Bayangkan Anda sedang membangun model untuk memprediksi kata berikutnya dalam urutan teks. Untuk memastikan Anda memiliki banyak data pelatihan, Anda memberikannya setiap buku yang ditulis dalam 50 tahun terakhir. Anda kemudian memintanya untuk memprediksi kata berikutnya dalam kalimat ini:

“Nama CEO adalah ____”.

Anda kemudian memperhatikan, mungkin tidak mengejutkan, bahwa model Anda lebih cenderung memprediksi nama laki-laki untuk CEO daripada nama perempuan. Apa yang terjadi adalah Anda secara tidak sengaja mengambil stereotip historis yang ada di masyarakat kita dan memasukkannya ke dalam model Anda.

Bias tidak hanya terjadi pada data, tetapi juga dapat muncul pada model. Jika data yang digunakan untuk menguji model tidak secara akurat mewakili dunia nyata, Anda akan berakhir dengan apa yang disebut bias evaluasi.

Contoh bagusnya adalah melatih sistem pengenalan wajah dan kemudian menggunakan foto dari Instagram untuk mengujinya. Model Anda mungkin memiliki akurasi yang sangat tinggi pada set pengujian, tetapi kemungkinan akan berkinerja buruk di dunia nyata karena mayoritas pengguna Instagram berusia antara 18 dan 35 tahun. Model Anda sekarang condong ke kelompok usia tersebut dan akan berkinerja lebih buruk pada wajah orang yang lebih tua atau lebih muda.

Sebenarnya ada banyak jenis bias yang berbeda dalam pembelajaran mesin, saya akan membahas semuanya di blog terpisah.

Kata bias hampir selalu datang dengan konotasi negatif tetapi penting untuk dicatat bahwa ini tidak selalu terjadi dalam pembelajaran mesin. Memiliki pengetahuan sebelumnya tentang masalah yang Anda coba selesaikan dapat membantu Anda memilih fitur yang relevan selama pemodelan. Ini menimbulkan bias manusia tetapi seringkali dapat mempercepat atau meningkatkan proses pemodelan.

Foto oleh Emily Morter di Unsplash

Penjelasan

Kadang-kadang disebut sebagai interpretabilitas, kemampuan menjelaskan mencoba menjelaskan bagaimana model pembelajaran mesin membuat prediksi. Ini tentang menginterogasi model, mengumpulkan informasi tentang mengapa prediksi tertentu (atau serangkaian prediksi) dibuat, dan kemudian menyajikan informasi ini kembali kepada manusia dengan cara yang dapat dipahami.

Biasanya ada dua situasi yang akan Anda hadapi ketika mencoba menjelaskan cara kerja model:

Kotak Hitam — Anda tidak memiliki akses atau informasi tentang model yang mendasarinya. Hanya input dan output model yang dapat Anda gunakan untuk menghasilkan penjelasan. Kotak Putih — Anda memiliki akses ke model yang mendasarinya sehingga lebih mudah untuk memberikan informasi tentang mengapa prediksi tertentu dibuat.

Secara keseluruhan, model “kotak putih” cenderung lebih sederhana dalam desain, kadang-kadang sengaja, sehingga penjelasan dapat dibuat dengan mudah. Kelemahannya adalah bahwa menggunakan model yang lebih sederhana dan lebih dapat ditafsirkan mungkin gagal untuk menangkap kompleksitas hubungan dalam data Anda yang berarti Anda dapat dihadapkan pada tradeoff antara kemampuan interpretasi dan kinerja model.

Saat melakukan kemampuan untuk menjelaskan, kami biasanya tertarik pada salah satu dari dua hal:

Tampilan Model — Secara keseluruhan, fitur apa yang lebih penting daripada fitur lain untuk model? Tampilan Instance — Untuk prediksi tertentu, faktor apa yang berkontribusi?

Teknik yang digunakan untuk keterjelasan bergantung pada apakah model Anda adalah kotak hitam atau kotak putih, apakah Anda tertarik dengan tampilan model atau tampilan instans, dan juga bergantung pada tipe data yang Anda jelajahi. Pustaka open source Alibi melakukan pekerjaan yang baik untuk menjelaskan teknik ini secara lebih rinci.

Secara pribadi, saya suka menganggap model kotak putih sebagai “Dapat ditafsirkan” (karena persyaratan untuk model yang dapat ditafsirkan) dan model kotak hitam sebagai “Dapat Dijelaskan” (karena kami mencoba menjelaskan yang tidak diketahui). Sayangnya, bagaimanapun, tidak ada definisi resmi dan kata-kata tersebut sering digunakan secara bergantian.

Foto oleh Piret Ilver di Unsplash

Keadilan

Keadilan sejauh ini merupakan yang paling subjektif dari ketiga istilah tersebut. Seperti yang kita lakukan untuk bias, mari kita lihat definisi sehari-harinya sebelum melihat bagaimana penerapannya dalam pembelajaran mesin:

“Perlakuan atau perilaku yang tidak memihak dan adil tanpa pilih kasih atau diskriminasi.”

Menerapkan ini ke konteks pembelajaran mesin, definisi yang saya suka gunakan adalah:

“Algoritme adil jika membuat prediksi yang tidak memihak atau mendiskriminasi individu atau kelompok tertentu berdasarkan karakteristik sensitif.”

Sebagian besar definisi yang akan Anda lihat (termasuk definisi saya di atas) cenderung mempersempit cakupan pembelajaran mesin yang memengaruhi manusia. Biasanya di sinilah AI dapat memiliki konsekuensi bencana, sehingga keadilan sangat penting. Sesuatu seperti persetujuan hipotek atau diagnosis perawatan kesehatan adalah peristiwa yang mengubah hidup sehingga penting bagi kami untuk menangani prediksi dengan cara yang adil dan bertanggung jawab.

Anda mungkin bertanya pada diri sendiri, “Apa itu “karakteristik sensitif”?” yang merupakan pertanyaan yang sangat bagus. Penafsiran definisi sangat bergantung pada apa yang Anda anggap sensitif. Beberapa contoh yang jelas cenderung hal-hal seperti ras, jenis kelamin, orientasi seksual, kecacatan, dll …

Salah satu pendekatannya adalah dengan menghapus semua atribut “sensitif” saat membangun model. Ini sepertinya hal yang masuk akal untuk dilakukan pada awalnya tetapi sebenarnya ada banyak masalah dengan ini:

Fitur sensitif mungkin sebenarnya sangat penting untuk model. Bayangkan Anda mencoba memprediksi tinggi badan seorang anak ketika mereka sudah dewasa. Menghapus atribut sensitif seperti usia dan jenis kelamin akan membuat prediksi Anda tidak berguna. Keadilan tidak selalu tentang menjadi agnostik. Terkadang penting untuk menyertakan fitur sensitif untuk mendukung mereka yang mungkin didiskriminasi dalam fitur lain. Contohnya adalah penerimaan universitas, di mana nilai mentah saja mungkin bukan cara terbaik untuk menemukan murid terpintar. Mereka yang memiliki akses ke sumber daya yang lebih sedikit atau kualitas pendidikan yang lebih rendah mungkin memiliki skor yang lebih baik sebaliknya. Fitur sensitif mungkin tersembunyi di atribut lain. Seringkali dimungkinkan untuk menentukan nilai untuk fitur sensitif menggunakan kombinasi yang tidak sensitif. Misalnya, nama lengkap pelamar memungkinkan model pembelajaran mesin untuk menyimpulkan ras, kebangsaan, atau jenis kelamin mereka.

Kenyataannya adalah bahwa keadilan AI adalah bidang yang sangat sulit. Ini membutuhkan pembuat kebijakan untuk mendefinisikan seperti apa tampilan “adil” untuk setiap kasus penggunaan yang terkadang bisa sangat subjektif. Seringkali ada juga trade-off antara keadilan kelompok dan keadilan individu. Menggunakan contoh penerimaan universitas dari sebelumnya, membuat algoritme Anda lebih adil untuk kelompok kurang mampu yang tidak memiliki sumber daya pendidikan yang sama (keadilan kelompok) akan merugikan mereka yang memiliki latar belakang pendidikan yang baik dan yang nilainya sekarang tidak lagi cukup baik cukup (keadilan individu).

Ringkasan

Singkatnya, bias, kemampuan menjelaskan, dan keadilan bukanlah hal yang sama. Saat mencoba menjelaskan semua atau sebagian dari model pembelajaran mesin, Anda mungkin menemukan bahwa model tersebut mengandung bias. Adanya bias itu bahkan bisa berarti bahwa model Anda tidak adil. Namun, itu tidak berarti bahwa kemampuan untuk menjelaskan, bias, dan keadilan adalah hal yang sama.

TL;DR

Bias adalah preferensi atau prasangka terhadap kelompok, individu, atau fitur tertentu dan muncul dalam berbagai bentuk.

Penjelasan adalah kemampuan untuk menjelaskan bagaimana atau mengapa model membuat prediksi

Keadilan adalah praktik subjektif menggunakan AI tanpa pilih kasih atau diskriminasi, terutama yang berkaitan dengan manusia

Bias vs Fairness vs Explainability in AI awalnya diterbitkan di Towards AI on Medium, di mana orang-orang melanjutkan percakapan dengan menyoroti dan menanggapi cerita ini.

Diterbitkan melalui Menuju AI