Cara Mengurangi Bias pada (AI) dalam Proses Perekrutan
Kecerdasan buatan (AI) telah mengubah secara signifikan proses perekrutan, memberikan tim perekrutan pendekatan yang efisien untuk mendapatkan bakat baru. Meskipun AI dapat meningkatkan pengambilan keputusan dan mengurangi bias dalam perekrutan, namun tidak kebal terhadap diskriminasi yang sama seperti penciptanya yang manusiawi.
Oleh karena itu, perusahaan menghadapi tantangan untuk mengatasi dan meminimalkan bias AI dalam perekrutan guna memastikan praktik perekrutan yang adil dan inklusif. Dalam artikel ini dari Aniday, kita akan menjelajahi konsep bias AI, berbagai bentuknya, dan strategi praktis untuk mengurangi dampaknya. Ikuti blog ini bersama Aniday.
Apa itu Bias AI?
Bias dalam konteks AI merujuk pada perlakuan yang tidak adil atau diskriminatif terhadap individu atau kelompok berdasarkan karakteristik tertentu seperti ras, jenis kelamin, usia, atau etnis.
Dalam proses perekrutan, manajemen, dan pemecatan, berbagai bias dapat muncul, seringkali secara halus atau tanpa disadari. Bias ini dapat menyebabkan perekrutan lebih sedikit perempuan secara keseluruhan, penghentian prematur karyawan yang lebih tua, atau menghambat peluang pekerjaan bagi individu yang termasuk dalam kelas-kelas tertentu yang dilindungi.
Meskipun beberapa perusahaan telah menerapkan AI dalam fungsi perekrutan untuk membuat keputusan tanpa mempertimbangkan kelas-kelas dilindungi ini, AI sendiri tidak bekerja secara terisolasi dari bias.
Efektivitas AI tergantung pada set data yang digunakan untuk melatihnya, dan setiap kesalahan atau bias yang melekat dalam data akan tercermin dalam output AI. Bias ini bukanlah emosional, melainkan kesalahan pemrograman yang menghasilkan hasil yang tidak diinginkan dan tidak disengaja.
Data Dapat Mencerminkan Bias Masyarakat yang Tersembunyi
Salah satu sumber utama bias AI dalam perekrutan berasal dari data yang digunakan untuk melatih model AI. Misalnya, pencarian kata "cantik" di Google sebagian besar menampilkan gambar wanita kulit putih. Bias ini bukan disebabkan oleh preferensi rasial yang tertanam dalam algoritma mesin pencari, melainkan refleksi dari data latihan, yang berisi representasi berlebihan dari gambar-gambar spesifik ini yang dibuat oleh orang yang memiliki preferensi bias.
Algoritma Dapat Mempengaruhi Data Mereka Sendiri
Aspek lain yang menyumbang pada bias AI dalam perekrutan adalah kemampuan algoritma untuk mempengaruhi data yang mereka terima. Loop umpan balik positif dapat terjadi ketika jenis konten tertentu mendapatkan popularitas berdasarkan interaksi pengguna. Hal ini memperkuat keterlihatan dan kedudukan data tertentu, lebih memperkuat bias yang sudah ada dalam set data pelatihan AI. Akibatnya, sistem AI dapat mempertahankan dan memperbesar biasnya sendiri.
Orang Dapat Memanipulasi Data pelatihan
Pihak yang tidak bertanggung jawab dapat dengan sengaja merusak data latihan, mengarah pada hasil yang bias. Contoh yang terkenal adalah chatbot AI "Tay" milik Microsoft, yang dirilis di Twitter pada tahun 2016. Dalam beberapa jam, orang mengajarkan Tay untuk memposting konten provokatif dan ofensif, menghasilkan disinformasi yang bersifat kekerasan, rasialis, dan seksis.
Untuk mengatasi masalah ini, model AI open-source atau yang tersedia secara publik sering memerlukan pemantauan dan intervensi terus-menerus untuk mencegah manipulasi sengaja terhadap set data latihan.
Data yang Tidak Seimbang Mempengaruhi Output
Sebuah ungkapan umum di kalangan ilmuwan data adalah "sampah masuk, sampah keluar," menekankan bahwa data input yang cacat akan menghasilkan output yang cacat. Jika pemrogram secara tidak sengaja melatih AI pada informasi yang tidak mencerminkan distribusi kehidupan nyata secara akurat, prediksi dan keputusan AI dapat menjadi terdistorsi.
Misalnya, perangkat lunak pengenalan wajah mungkin kesulitan mengenali wajah individu dengan warna kulit yang lebih gelap jika set data pelatih awalnya terutama terdiri dari gambar orang kulit putih.
Selain itu, set data yang tidak seimbang dapat memperkenalkan asosiasi yang tidak disengaja antara fitur dan prediksi atau kategori tersembunyi. Jika data pelatihan tidak mencakup contoh sopir truk perempuan, AI mungkin secara otomatis mengaitkan kategori laki-laki dan sopir truk karena kurangnya contoh eksplisit yang melibatkan perempuan.
Akibatnya, AI menciptakan bias terhadap perekrutan perempuan sebagai sopir truk berdasarkan pola sebelumnya, meskipun itu adalah kesimpulan yang keliru.
Mengapa Bias AI Menjadi Tantangan dalam Perekrutan
Tim perekrutan berdedikasi untuk memastikan keadilan sepanjang proses perekrutan. Namun, peningkatan beban kerja dan banjirnya lamaran pekerjaan telah mendorong banyak tim untuk beralih ke AI dan perangkat lunak otomatisasi untuk membantu mengelola volume besar resume dan aplikasi.
Sebelum pandemi COVID-19, rata-rata lowongan pekerjaan menerima 250 lamaran, tetapi saat ini, beberapa posisi tingkat masuk menerima ribuan kandidat. Program AI sering digunakan untuk membantu memprediksi kinerja pekerjaan, menilai wawancara video, dan membuat keputusan perekrutan.
Namun, pelamar melaporkan kasus di mana perangkat lunak AI menolak aplikasi mereka berdasarkan faktor seperti nama yang terdengar asing atau kata-kata tertentu yang disertakan dalam resume mereka. Meskipun nama dan pilihan kata bukan kelas yang dilindungi, namun mereka dapat berfungsi sebagai proksi untuk ras, jenis kelamin, atau usia.
Sebagai contoh, Amazon harus menghentikan penggunaan alat perekrutan pada tahun 2018 yang secara otomatis memberikan hukuman pada resume yang mengandung kata "wanita," secara tidak sengaja merugikan kandidat dengan latar belakang terkait studi wanita. Insiden ini sangat mencolok mengingat perusahaan di kuartil teratas untuk keberagaman gender 25% lebih mungkin menghasilkan keuntungan di atas rata-rata dibandingkan dengan mereka di kuartil terbawah.
Mengurangi Efek Bias AI dalam Perekrutan
Untuk menangani dan mengurangi bias AI dalam proses perekrutan, tim perekrutan dapat mengadopsi beberapa praktik terbaik:
Memeriksa Prediksi AI:
Penting untuk tidak hanya mengandalkan prediksi AI tanpa verifikasi. Meskipun algoritma berusaha membuat prediksi yang akurat, mereka masih dapat menghasilkan kesalahan, termasuk bias. Oleh karena itu, seseorang dalam tim harus meninjau saran AI dan membuat keputusan yang diinformasikan tentang menerima, menolak, atau memeriksa lebih lanjut.
Melaporkan Bias Segera:
Ketika tim perekrutan mengidentifikasi bias dalam perangkat lunak AI, penting untuk segera melaporkan masalah ini. Programmer dapat bekerja untuk memperbaiki AI untuk memperbaiki bias dan meningkatkan keadilan. Pelaporan tepat waktu dan kerjasama antara perekrut dan programmer sangat penting dalam mengatasi dan memperbaiki masalah terkait bias.
Mencari Transparansi:
Programmer memainkan peran penting dalam memberikan transparansi mengenai algoritma yang digunakan dalam sistem AI. Pengguna harus memiliki akses informasi tentang jenis data yang digunakan oleh perangkat lunak, meskipun memahami model AI yang kompleks dapat menimbulkan tantangan karena lapisan tersembunyi. Oleh karena itu, tim perekrutan harus memprioritaskan pemilihan dan implementasi perangkat lunak AI yang menawarkan transparansi mengenai data dan proses pelatihan.
Mendapatkan Perspektif yang Berbeda:
Melibatkan profesional yang memiliki keahlian di bidang sosiologi atau psikologi dalam tim dapat memberikan kontribusi besar untuk mengidentifikasi bias yang ada dalam set data pelatihan dan memberikan wawasan berharga untuk memperbaikinya. Para ahli ini terampil dalam mengenali bias-bias masyarakat dan dapat memberikan panduan untuk memastikan keadilan dan inklusivitas dalam proses perekrutan AI.
Bertanya:
Sebelum merilis perangkat lunak AI baru ke publik, programmer harus melakukan pemeriksaan menyeluruh untuk memverifikasi kesesuaian data dengan tujuan keseluruhan. Mereka harus mempertimbangkan apakah AI mencakup fitur yang benar, apakah ukuran sampel sudah mencukupi, dan apakah ada bias yang sengaja diperkenalkan selama proses pelatihan. Meskipun proses standar untuk memeriksa perangkat lunak AI belum muncul, programmer harus dengan cermat memeriksa pekerjaan mereka dan menangani potensi kekhawatiran bias.
Meningkatkan Keberagaman, Kesetaraan, dan Inklusi:
Hampir 50% rekruter telah melihat peningkatan pertanyaan pencari kerja tentang keberagaman dan inklusi. Untuk menciptakan proses perekrutan yang adil, perusahaan harus berusaha menciptakan budaya keberagaman, kesetaraan, dan inklusi (DEI) di luar sekadar meningkatkan penggunaan AI. Misalnya, menghilangkan bahasa diskriminatif dari iklan lowongan kerja dan secara aktif mempromosikan inisiatif keberagaman dalam organisasi dapat membantu menarik bakat yang beragam dan mengurangi bias dalam praktik perekrutan.
Berusaha Menciptakan Keseimbangan:
Penting untuk menyadari bahwa AI hanyalah alat yang beroperasi berdasarkan desain dan pelatihannya. Untuk meminimalkan bias, tim perekrutan harus mengevaluasi kritis setiap perangkat lunak yang digunakan dalam proses perekrutan. Pada akhirnya, pembuat keputusan manusia harus tetap memiliki otoritas akhir karena mereka lebih baik posisinya untuk mempertimbangkan konteks lebih luas dan keadaan individu.
Kesimpulan
Kecerdasan buatan telah mengubah proses perekrutan, menyederhanakan dan mempercepat penerimaan bakat. Meskipun demikian, masalah bias kecerdasan buatan merupakan tantangan besar yang memerlukan perhatian agar praktik perekrutan yang adil dan inklusif dapat dijamin. Dengan menerapkan strategi-strategi yang diuraikan dalam artikel ini dari Aniday, tim akuisisi bakat dapat mengurangi dampak bias kecerdasan buatan dalam proses perekrutan.
Mulai dari memeriksa prediksi kecerdasan buatan secara ganda, mencari transparansi, sudut pandang yang beragam, hingga memupuk budaya keberagaman, kesetaraan, dan inklusi, organisasi dapat bekerja menuju menciptakan lingkungan perekrutan yang bebas bias dan adil. Ingatlah, ketika berusaha merekrut manusia, mereka seharusnya diperlakukan sebagai manusia. Aniday berharap blog ini bermanfaat bagi Anda.