Mantan perenang Paralimpiade Australia ini ingin mempercantik foto wajahnya dan mengunggah foto tubuhnya penuh serta menjelaskan secara spesifik bahwa ia kehilangan lengan kirinya dari bawah siku.
Tetapi ChatGPT tidak dapat menciptakan gambar yang dimintanya dan meskipun telah diberikan berbagai perintah, hasil yang diperoleh sebagian besar sama – seorang wanita dengan dua lengan atau seorang wanita dengan perangkat logam untuk mewakili prostetik.
Ia bertanya kepada AI mengapa begitu sulit membuat gambar dan AI berkata bahwa itu karena AI tidak memiliki cukup data untuk mengolahnya.
“Itu adalah kesadaran penting bagi saya bahwa tentu saja AI merupakan cerminan dunia tempat kita hidup saat ini dan tingkat ketidaksetaraan serta diskriminasi yang ada,” ujarnya.
Hingga awal Oktober, Smith tidak dapat membuat gambar dirinya sendiri tetapi setelah BBC bertanya kepada ChatGPT mengapa demikian dan Jess mencoba lagi, hal itu menjadi mungkin.
Dia takjub saat mengetahui bahwa sekarang alat itu dapat menghasilkan gambar akurat seorang wanita dengan satu lengan, persis seperti dirinya.
“Ya ampun, berhasil, sungguh menakjubkan akhirnya ada pembaruan,” ujarnya kepada BBC. “Ini langkah maju yang luar biasa.”
Mungkin kedengarannya bukan masalah besar, tetapi bagi jutaan penyandang disabilitas, perubahan ini penting.
“Representasi dalam teknologi berarti dilihat bukan sebagai renungan belakangan, melainkan sebagai bagian dari dunia yang sedang dibangun,” kata Jess.
AI terus berkembang, dan ketika ia berkembang dengan inklusi sebagai intinya, kita semua akan merasakan manfaatnya. Ini bukan hanya kemajuan teknologi, tetapi kemajuan kemanusiaan.
Seorang juru bicara OpenAI, perusahaan di balik ChatGPT, mengatakan pihaknya baru-baru ini “membuat perbaikan yang berarti” pada model pembuatan gambarnya.
Mereka menambahkan: “Kami tahu masih ada tantangan, terutama terkait representasi yang adil, dan kami secara aktif berupaya memperbaikinya – termasuk menyempurnakan metode pasca-pelatihan kami dan menambahkan contoh yang lebih beragam untuk membantu mengurangi bias seiring waktu.”
Sementara kecacatan Smith kini tercermin dengan AI, Naomi Bowman, yang hanya memiliki penglihatan pada satu mata, masih mengalami masalah serupa.
Dia meminta ChatGPT untuk mengaburkan latar belakang sebuah gambar tetapi malah “mengubah wajah saya sepenuhnya dan meratakan mata saya”.
“Bahkan ketika saya menjelaskan secara spesifik bahwa saya punya kondisi mata dan harus membiarkan wajah saya sendiri; itu tidak masuk akal,” katanya.
Naomi awalnya menganggapnya lucu tetapi berkata “sekarang hal itu membuatku sedih karena menunjukkan bias yang melekat dalam AI”.
Ia meminta agar model AI “dilatih dan diuji dengan cara yang ketat untuk mengurangi bias AI dan memastikan kumpulan data cukup luas sehingga setiap orang terwakili dan diperlakukan secara adil”.
Beberapa orang yang khawatir tentang dampak AI terhadap lingkungan telah mengkritik pembuatan gambar di ChatGPT.
Percakapan yang canggung
Para ahli mengatakan bias dalam kecerdasan buatan sering kali mencerminkan titik buta yang sama yang ada dalam masyarakat luas dan bukan hanya disabilitas yang tidak terwakili.
Abran Maldonado, kepala eksekutif Create Labs, sebuah perusahaan berbasis di AS yang membangun sistem AI yang sadar budaya, mengatakan keberagaman dalam AI dimulai dengan siapa yang terlibat dalam pelatihan dan pelabelan data.
“Yang penting adalah siapa yang ada di ruangan saat data sedang dibangun,” jelasnya. “Anda membutuhkan representasi budaya pada tahap pembuatan.”
Tidak semuanya terwakili di internet dengan benar dan Maldonado menambahkan bahwa jika Anda tidak berkonsultasi dengan orang-orang yang memiliki pengalaman hidup maka AI akan melewatkannya.
Salah satu contoh terkenal adalah studi pemerintah AS tahun 2019 yang menemukan bahwa algoritma pengenalan wajah jauh kurang akurat dalam mengidentifikasi wajah Afrika-Amerika dan Asia dibandingkan dengan wajah Kaukasia.
Meski hidup dengan satu tangan, Jess tidak menganggap dirinya cacat, dan mengatakan hambatan yang dihadapinya bersifat sosial.
“Jika saya menggunakan toilet umum dan kerannya harus ditekan, itu memengaruhi kemampuan saya, bukan karena saya tidak bisa melakukannya, tetapi karena perancangnya tidak memikirkan saya.”
Dia yakin ada risiko pengawasan serupa terjadi di dunia AI, sistem dan ruang yang dibangun tanpa mempertimbangkan semua orang.
Ketika Jess membagikan pengalaman aslinya di LinkedIn, seseorang mengirim pesan kepadanya untuk mengatakan bahwa aplikasi AI miliknya akan membuat gambar seorang wanita dengan satu lengan.
“Saya mencoba membuatnya dan hal yang sama terjadi, saya tidak bisa menghasilkan gambar itu,” katanya.
Dia memberi tahu orang tersebut, tetapi mereka tidak pernah membalasnya dan dia mengatakan bahwa itu adalah hal yang biasa dalam percakapan seputar disabilitas.
“Percakapannya terlalu canggung dan tidak mengenakkan, sehingga orang-orang menjauh.”












Leave a Reply