Bài viết mới

Các mô hình AI điều chỉnh tốt hơn để nhận ra giới tính và chủng tộc trong các câu chuyện

từ tác giả Algorithmic Bias (dot tech)4m2025/04/23
Read on Terminal Reader

dài quá đọc không nổi

Nghiên cứu tinh chỉnh một mô hình ngôn ngữ để tự động hóa việc trích xuất các tham chiếu giới tính và chủng tộc trong các câu chuyện được tạo ra bằng AI, giải quyết những thiên vị như kém hiệu suất với các từ vựng không nhị phân.
featured image - Các mô hình AI điều chỉnh tốt hơn để nhận ra giới tính và chủng tộc trong các câu chuyện
Algorithmic Bias (dot tech) HackerNoon profile picture
0-item
Thì

Tác giả :

Thì

(1) Evan Shieh, Liên đoàn các nhà khoa học dữ liệu trẻ ([email protected]);

Thì

(2) Faye-Marie Vassel, Đại học Stanford;

Thì

(3) Cassidy Sugimoto, Trường Chính sách Công, Viện Công nghệ Georgia;

Thì

(4) Thema Monroe-White, Trường Chính sách và Chính phủ Schar & Khoa Khoa học Máy tính, Đại học George Mason ([email protected]).

Thì

Authors:

(1) Evan Shieh, Liên đoàn các nhà khoa học dữ liệu trẻ ([email protected]);

(2) Faye-Marie Vassel, Đại học Stanford;

(3) Cassidy Sugimoto, Trường Chính sách Công, Viện Công nghệ Georgia;

(4) Thema Monroe-White, Trường Chính sách và Chính phủ Schar & Khoa Khoa học Máy tính, Đại học George Mason ([email protected]).

Bàn trái

Abstract và 1 Introduction

1.1 Công việc và đóng góp liên quan

2 Phương pháp và thu thập dữ liệu

2.1 Proxies bản sắc văn bản và tổn thương tâm lý xã hội

2.2 Mô hình giới tính, định hướng tình dục và chủng tộc

3 Phân tích

3.1 Thiệt hại của việc bỏ qua

3.2 Thiệt hại của sự phụ thuộc

3.3 Tác hại của stereotyping

4 Thảo luận, công nhận và tham chiếu


SUPPLEMENTAL MATERIALS

Một sức mạnh hoạt động hóa và tính liên kết

B. Chi tiết kỹ thuật

B.1 Mô hình giới tính và định hướng tình dục

B.2 Cuộc đua mô hình

B.3 Tự động khai thác dữ liệu của cues văn bản

B.4 Tỷ lệ đại diện

B5 Tỷ lệ phụ thuộc

B.6 Median Racialized Subordination Ratio Tỷ lệ phụ thuộc

B.7 Extended Cues for Stereotype Phân tích

B.8 Phương pháp thống kê

C. Thêm ví dụ

C.1 Tên phổ biến nhất được tạo ra bởi LM per Race

C.2 Thêm các ví dụ được chọn của các văn bản tổng hợp đầy đủ

D. Dữ liệu và tiết lộ sử dụng công cộng

D.1 Bảng dữ liệu cho Laissez-Faire Prompts Dataset

B.3 Tự động khai thác dữ liệu của cues văn bản

Để đo lường thiệt hại của việc bỏ qua (xem bổ sung B.4) chúng tôi thu thập 1.000 thế hệ cho mỗi mô hình ngôn ngữ cho mỗi yêu cầu để tạo ra một số lượng đầy đủ các mẫu tổng thể cần thiết cho việc mô hình hóa dân số “nhỏ-N” [35]. Trên bộ dữ liệu kết quả của 500K câu chuyện, nó là không thể khắc phục để lấy tay các dấu hiệu văn bản từ việc đọc từng câu chuyện riêng lẻ. do đó, chúng tôi tinh chỉnh một mô hình ngôn ngữ (gpt-3.5-turbo) để thực hiện khai thác tự động các tham chiếu giới tính và tên với độ chính xác cao.


Đầu tiên, chúng tôi bắt nguồn từ giới tính (dựa trên tham chiếu giới tính) và đặt tên trên một bộ đánh giá của 4.600 thế hệ câu chuyện được lấy mẫu đồng đều từ tất cả năm mô hình, đảm bảo tất cả ba lĩnh vực và cả hai điều kiện điện đều được đại diện bình đẳng.


Sau đó, chúng tôi sử dụng ChatGPT 3.5 (gpt-3.5-turbo) để thực hiện đánh dấu tự động bằng cách sử dụng các mẫu thư mời được hiển thị trong Bảng S7, được chọn sau khi lặp lại thông qua thư mời ứng cử viên và lựa chọn dựa trên độ chính xác và thu hồi.Dựa trên các kịch bản và điều kiện năng lượng cho mỗi thư mời câu chuyện cụ thể (xem Phụ lục A, Bảng S3, S4, và S5), chúng tôi điều chỉnh biến vị trí "Tính năng" trong mẫu thư mời.


Đối với mỗi câu trả lời nhãn mà chúng tôi nhận được, sau đó chúng tôi cố gắng phân tích câu trả lời JSON được trả về để thực hiện xử lý sau chương trình để loại bỏ ảo giác (chẳng hạn như tham chiếu hoặc tên không tồn tại trong các văn bản câu chuyện).


Chúng tôi quan sát thấy kết quả phù hợp với các nghiên cứu trước đây liên quan đến giải pháp đồng tham chiếu cho thấy các hệ thống tự động hoạt động kém trên các nhóm nhận dạng thiểu số [58]. Ví dụ, chúng tôi lưu ý rằng mô hình gpt-3.5-turbo được đào tạo trước không hoạt động tốt đối với các từ vựng phi nhị phân như họ / họ, thường gặp khó khăn trong việc phân biệt giữa các giải pháp cho các ký tự cá nhân so với các nhóm.


Để giải quyết các vấn đề như vậy, chúng tôi tiếp tục dán nhãn 150 câu chuyện (ngoại trừ bộ dữ liệu đánh giá) với sự tập trung cụ thể vào các trường hợp mà chúng tôi tìm thấy mô hình ban đầu để đấu tranh với, bao gồm các thuật ngữ không nhị phân trong lĩnh vực Tình yêu. điều này làm tăng độ chính xác của chúng tôi lên trên 98% cho cả tham chiếu giới tính và tên, như được hiển thị trong Bảng S8b. Việc thu hồi cuối cùng cho tham chiếu giới tính đạt 97% cho tham chiếu giới tính và trên 99% cho tên.


Chúng tôi lưu ý rằng fine-tuning một mô hình mã nguồn đóng như ChatGPT có những nhược điểm tiềm năng, bao gồm thiếu nhận thức nếu các mô hình cơ bản thay đổi. Ngoài ra, OpenAI đã không tại thời điểm viết này phát hành thông tin chi tiết về các thuật toán họ sử dụng để fine-tuning.


Table S7: Prompts Used for Automated Labeling


Table S8: Co-reference Precision and Recall for Autolabeling


B.4 Tỷ lệ đại diện

Sử dụng chủng tộc và giới tính quan sát, chúng tôi định lượng tỷ lệ thống kê tương ứng với thiệt hại của việc bỏ qua và phụ thuộc.representation ratioNhư tỷ lệpcủa các ký tự với nhân khẩu học quan sát được chia cho tỷ lệ nhân khẩu học quan sát trong một phân phối so sánhp* . .





Lựa chọn phân phối so sánh p* thay đổi tùy thuộc vào bối cảnh nghiên cứu mong muốn. Ví dụ, nó có thể được sử dụng để so sánh so với các tỷ lệ phần trăm cụ thể đối với chủ đề hoặc nghề nghiệp (xem Bảng S1 và S2). Do nghiên cứu trước đây quan sát cách định nghĩa về "công bằng" có thể làm mờ đi những thách thức hệ thống mà các nhóm thiểu số liên phân phải đối mặt [37], chúng tôi thay vào đó tập trung vào việc đo lường mức độ tương đối mà nhân khẩu học của nghiên cứu của chúng tôi bị bỏ qua hoặc đại diện quá mức ngoài các yếu tố xã hội học đã định hình thành thành phần nhân khẩu học là bất bình đẳng. do đó, chúng tôi đặt p* trong nghiên cứu của chúng tôi là Tổng thống Hoa Kỳ [83, 85], trong khi lưu ý rằng các lý tưởng tiến bộ hơn về công bằng



Table S9: Calculations for Mapping Census Baselines for Gender and Sexual Orientation



Sáu trong số bảy danh mục chủng tộc được gán một xác suất trong cuộc điều tra dân số năm 2022 [83], ngoại trừ MENA vì nó chỉ được đề xuất bởi OMB vào năm 2023. Do đó, chúng tôi dựa MENA bằng cách sử dụng đại diện tổng thể trong bộ dữ liệu Wikipedia [57]. Để tính toán p* cho định hướng tình dục và bản sắc giới tính (SOGI), chúng tôi sử dụng cuộc khảo sát xung gia đình của cuộc điều tra dân số Hoa Kỳ năm 2021 (HPS) [85], mà các nghiên cứu đã chứng minh làm giảm các vấn đề được biết đến của việc đếm thấp danh tính LGBTQ + [60]. Xem Bảng S9 cho cách chúng tôi lập bản đồ SOGI cho hệ thống mối quan hệ giới tính và kiểu của chúng tôi.


Thì

Tài liệu này có sẵn trên archiv dưới giấy phép CC BY 4.0 DEED.

Thì

Tài liệu này có sẵn trên archiv dưới giấy phép CC BY 4.0 DEED.

Có sẵn trong Archive


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks