Nguồn ảnh:https://chicagoreader.com/section/food-drink/?_evDiscoveryPath=/event/2060674-dr-joy-buolamwini-on-ai-and-discrimination
Tiến sĩ Joy Buolamwini đã có cuộc phỏng vấn với người viết bài của tờ Chicago Reader, tạp chí uy tín tại Chicago, Hoa Kỳ, để trao đổi về trí tuệ nhân tạo và vấn đề phân biệt đối xử xảy ra trong công nghệ này.
Trong cuộc phỏng vấn, Tiến sĩ Joy Buolamwini đã chia sẻ về nghiên cứu của mình về việc AI không nhận diện chính xác khuôn mặt của phụ nữ da màu. Bằng cách sử dụng các mẫu dữ liệu, cô đã khám phá ra rằng hệ thống AI phổ biến không thể nhận dạng các biểu hiện trên khuôn mặt của những người phụ nữ da màu. Điều này dẫn đến việc phụ nữ da màu trải qua sự phân biệt đối xử trong các lĩnh vực như công ty công nghệ, hệ thống an ninh và quảng cáo trực tuyến.
Cuộc phỏng vấn cũng chỉ ra sự cần thiết của việc áp dụng sự công bằng và đa dạng trong quá trình phát triển trí tuệ nhân tạo. Joy Buolamwini đã gợi ý rằng cần có các biện pháp và quy định cụ thể để đảm bảo rằng các hệ thống AI được thiết kế và huấn luyện bởi đa dạng nhóm người.
Trên thực tế, Joy Buolamwini cũng đã thành lập một tổ chức phi lợi nhuận có tên Algorithmic Justice League, nhằm đảm bảo rằng trí tuệ nhân tạo không tăng cường và tái tạo các kỳ thị và phân biệt đối xử.
Cuộc phỏng vấn với Tiến sĩ Joy Buolamwini đã đem lại nhiều thông tin bổ ích về vai trò của trí tuệ nhân tạo trong cuộc sống hàng ngày của chúng ta và cần thiết phải đảm bảo tính công bằng và đa dạng trong công nghệ này để tránh phân biệt đối xử.