Các giám đốc điều hành của Google , Microsoft , OpenAI và Anthropic của Alphabet Inc đã gặp Phó Chủ tịch Kamala Harris và các quan chức chính quyền hàng đầu khác vào thứ Năm để thảo luận về các vấn đề trí tuệ nhân tạo (AI) chính.
Thư mời gửi tới các CEO nêu rõ yêu cầu của Tổng thống Joe Biden rằng các công ty công nghệ phải đảm bảo an toàn cho sản phẩm của họ trước khi cung cấp ra công chúng.
Sự phát triển nhanh chóng của công nghệ AI đã làm dấy lên mối lo ngại về vi phạm quyền riêng tư, sự thiên vị và nguy cơ lây lan lừa đảo và thông tin sai lệch. ChatGPT đã thu hút sự chú ý đặc biệt từ các nhà lập pháp Hoa Kỳ khi gần đây nó đã trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử với hơn 100 triệu người dùng hoạt động hàng tháng.
Vào tháng 4, Tổng thống Biden tuyên bố rằng vẫn còn phải xem liệu AI có nguy hiểm hay không, nhưng các công ty công nghệ có trách nhiệm đảm bảo rằng sản phẩm của họ an toàn, với lý do tác hại đã gây ra bởi các công nghệ mạnh mẽ nếu không có biện pháp bảo vệ thích hợp.
Vào thứ Hai, Hội đồng Chính sách Nội địa của Nhà Trắng và Văn phòng Chính sách Khoa học và Công nghệ đã đưa ra một bài đăng trên blog cảnh báo về rủi ro nghiêm trọng mà công nghệ này gây ra cho người lao động.
Một tuyên bố chính thức được đăng trên trang web của Nhà Trắng hôm thứ Năm có nội dung: “Hôm nay, Chính quyền Biden-Harris công bố các hành động mới nhằm thúc đẩy hơn nữa sự đổi mới có trách nhiệm của Mỹ trong lĩnh vực trí tuệ nhân tạo (AI) và bảo vệ quyền cũng như sự an toàn của mọi người.”
Cuộc họp hôm thứ Năm có sự tham gia của các quan chức cấp cao như Chánh văn phòng Jeff Zients của Biden, Cố vấn An ninh Quốc gia Jake Sullivan, Bộ trưởng Thương mại Gina Raimondo và Giám đốc Hội đồng Kinh tế Quốc gia Lael Brainard.
Một số biện pháp được công bố bao gồm yêu cầu đối với các hệ thống AI phải được đánh giá độc lập bởi các nhà phát triển AI hàng đầu, bao gồm Google, Microsoft và OpenAI, để đảm bảo chúng tuân thủ các nguyên tắc và thực tiễn được nêu trong Kế hoạch chi tiết của chính quyền về Dự luật về Quyền của AI và AI. Khung quản lý rủi ro.
Quỹ Khoa học Quốc gia cũng đang tài trợ 140 triệu đô la để thành lập 7 Viện Nghiên cứu AI Quốc gia mới, nâng tổng số lên 25 trên toàn quốc và mở rộng mạng lưới các tổ chức liên quan đến hầu hết các bang.
Văn phòng Quản lý và Ngân sách sẽ phát hành dự thảo hướng dẫn chính sách về việc sử dụng các hệ thống AI của chính phủ Hoa Kỳ để lấy ý kiến công khai, nhằm đảm bảo các trung tâm phát triển, mua sắm và sử dụng của chúng nhằm bảo vệ quyền và sự an toàn của người dân Hoa Kỳ.
Trong khi đó, Liên minh Châu Âu tiếp tục đạt được những bước tiến trong ChatGPT . Trong một bức thư ngỏ từ tháng 4, một nhóm gồm 12 nhà lập pháp của Liên minh Châu Âu đã ủng hộ việc thực hiện các quy định mới để quản lý nhiều loại công cụ trí tuệ nhân tạo hơn, vượt xa những công cụ đã được phân loại là có rủi ro cao rõ ràng theo Đạo luật AI được đề xuất cho vùng đất.
Một quan chức chính quyền cấp cao của EU cho biết chính quyền Biden đang làm việc với các đối tác châu Âu để xây dựng các quy định phù hợp. Sau khi tạm thời cấm ChatGPT, Ý đã làm cho phần mềm có thể truy cập được một lần nữa. Sự thay đổi diễn ra sau khi OpenAI đồng ý với các điều khoản của cơ quan giám sát Ý, yêu cầu mọi người có thể truy cập chính sách quyền riêng tư của họ trước khi họ đăng ký ChatGPT và để có một công cụ xác minh tuổi của người dùng.
Bài viết này ban đầu được xuất bản bởi Tom Driver trên The Sociable.
Hình ảnh chính cho bài viết này được tạo bởiTrình tạo hình ảnh AI của HackerNoon thông qua lời nhắc "Sundar Pichai ngồi trên nóc nhà trắng".