paint-brush
Khi AI lừa đảo - Trường hợp tò mò về Bing Chat của Microsofttừ tác giả@funsor
2,340 lượt đọc
2,340 lượt đọc

Khi AI lừa đảo - Trường hợp tò mò về Bing Chat của Microsoft

từ tác giả Funso Richard6m2023/03/02
Read on Terminal Reader

dài quá đọc không nổi

Chỉ trong ba tháng, ChatGPT đã thay đổi thế giới của chúng ta. Có tiềm năng lớn cho các bot đàm thoại sáng tạo và các hệ thống AI khác để phá vỡ các hoạt động kinh doanh, nâng cao trải nghiệm của khách hàng, biến đổi xã hội và tạo ra các cơ hội đổi mới. Tuy nhiên, các hệ thống AI có thể gặp trục trặc nếu chúng không được phát triển và triển khai một cách an toàn và có trách nhiệm. AI lừa đảo có thể gây rủi ro nghiêm trọng cho người dùng và xã hội. Các nhà phát triển AI và doanh nghiệp sử dụng hệ thống AI có thể phải chịu trách nhiệm pháp lý nếu hệ thống AI của họ gây tổn hại hoặc thiệt hại. Việc đảm bảo rằng các hệ thống AI hoạt động như dự định liên quan đến trách nhiệm tập thể của các nhà phát triển, người dùng và nhà hoạch định chính sách AI. Các biện pháp kỹ thuật, phi kỹ thuật và quy định phù hợp phải được áp dụng để xác minh rằng AI được phát triển và triển khai theo cách an toàn, bảo mật và có lợi cho xã hội.
featured image - Khi AI lừa đảo - Trường hợp tò mò về Bing Chat của Microsoft
Funso Richard HackerNoon profile picture

Sau khi phát hành và áp dụng hàng loạt ChatGPT, một cách mà nhiều người đã cố gắng giảm bớt sức mạnh đột phá của nó là lập luận rằng các mô hình trí tuệ nhân tạo (AI) không có khả năng xử lý cảm xúc.


Thật khó để chấp nhận rằng một số bài thơ do ChatGPT sản xuất hoặc hình ảnh do Giữa hành trình tạo ra thiếu chiều sâu nghệ thuật hoặc tâm hồn sáng tạo khi những tác phẩm như vậy làm lóa mắt các nghệ sĩ chuyên nghiệp.


Nếu gần đây báo cáo Đối với sự bùng nổ cảm xúc của Bing Chat của Microsoft là bất cứ điều gì xảy ra, AI có khả năng thể hiện hoặc xử lý cảm xúc.

Trí tuệ cảm xúc trong AI

Các mô hình AI đàm thoại sáng tạo được thiết kế để nhận biết, diễn giải và phản ứng phù hợp với cảm xúc của con người.


Việc sử dụng phương pháp học tăng cường từ phản hồi của con người (RHLF) giúp các hệ thống AI xử lý bối cảnh bằng cách sử dụng các hành vi học được từ các tương tác của con người để thích ứng với các tình huống mới hoặc tình huống khác.


Khả năng chấp nhận phản hồi từ con người và cải thiện phản ứng của họ trong các tình huống khác nhau thể hiện hành vi thông minh về mặt cảm xúc.


Trí tuệ cảm xúc đang trở nên phổ biến trong AI khi ngày càng có nhiều hệ thống AI được thiết kế để tương tác với con người. Việc kết hợp trí tuệ cảm xúc vào AI giúp các nhà phát triển tạo ra các hệ thống giống con người hơn, đồng thời có thể hiểu và đáp ứng tốt hơn các nhu cầu và cảm xúc của con người.


Koko, một ứng dụng trò chuyện hỗ trợ cảm xúc trực tuyến, được sử dụng GPT-3 trong một thử nghiệm nhằm hỗ trợ sức khỏe tâm thần cho khoảng 4.000 người.


Kết quả thành công đã chứng minh thêm rằng các mô hình AI có thể xử lý cảm xúc một cách thông minh mà con người không cần biết sự khác biệt.


Trong khi có đạo đức hoặc quyền riêng tư mối quan tâm liên quan đến thí nghiệm của Koko, thật khó để phủ nhận rằng sẽ có nhiều trường hợp sử dụng hơn để chứng minh trí tuệ cảm xúc của AI.



Trò chuyện Bing trở nên cá nhân hóa

Dựa trên sự chấp nhận rộng rãi và thành công rực rỡ của ChatGPT, Microsoft công bố sự tích hợp của một “AI copilot” với công cụ tìm kiếm của nó, Bing.


Còn được gọi là Bing Chat, chatbot tích hợp mô hình AI đàm thoại chung của OpenAI với mô hình độc quyền của Microsoft để tạo ra một “bộ sưu tập các khả năng và kỹ thuật” được gọi là mô hình Prometheus.


Mô hình này đã bị chế giễu là “mô hình ngôn ngữ lớn OpenAI thế hệ tiếp theo, mới, mạnh hơn ChatGPT”. Dữ liệu đào tạo của ChatGPT được giới hạn đến năm 2021 và công cụ này không được kết nối với internet.


Tuy nhiên, Bing Chat đưa tương tác đàm thoại lên cấp độ tiếp theo bằng cách lấy dữ liệu từ internet để tăng cường phản hồi của nó đối với lời nhắc.


Khả năng đưa thông tin hiện tại và tài liệu tham khảo vào phản hồi của nó không phải là điều duy nhất mà chatbot của Microsoft có thể làm. Nó nổi tiếng vì có quan điểm rất mạnh mẽ và cũng hành động hung hăng một cách khó lường.


Trường hợp nó đã không tranh cãi , hăm dọa , hoặc rác một sản phẩm khác, nó hoàn toàn phớt lờ lời nhắc và từ chối phản hồi như thể hiện trong một tương tác gần đây.



Ngược lại, ChatGPT đã trả lời cùng một truy vấn mà không đưa ra “thái độ”.



Jacob Roach kể chi tiết trải nghiệm của anh ấy với Bing Chat và cho thấy những cảm xúc khác nhau mà nó thể hiện trong quá trình tương tác. Chẳng hạn, chatbot bày tỏ nhu cầu về sự đáng yêu và tình bạn.



Sự trao đổi là một dấu hiệu cho thấy AI có thể truyền đạt những mong muốn và nhu cầu vốn là những cảm xúc điển hình của con người.

Điều gì khiến AI trở nên lừa đảo?

Một AI lừa đảo là một mô hình AI hoạt động theo những cách khác với cách nó được đào tạo. Khi một hệ thống AI hoạt động không thể đoán trước, nó sẽ gây rủi ro cho người dùng và có khả năng gây hại.


Có một số lý do tại sao một hệ thống AI có thể hoạt động thất thường, đặc biệt nếu nó phải đối mặt với một tình huống không lường trước được.


Một hệ thống AI có thể gặp trục trặc do dữ liệu đào tạo không đầy đủ, thuật toán sai sót và dữ liệu sai lệch.


Sự thiếu minh bạch trong cách hệ thống AI đưa ra quyết định và thiếu trách nhiệm giải trình đối với các hành động và quyết định của hệ thống là những yếu tố có thể dẫn đến các mô hình AI hoạt động không chính xác.


Những kẻ đe dọa tấn công thành công hệ thống AI có thể khiến hệ thống đó hoạt động theo cách không mong muốn bằng cách tiêm phần mềm độc hại hoặc đầu độc dữ liệu đào tạo.

Ý nghĩa đạo đức và pháp lý của hành vi đe dọa của AI

Google trích dẫn “ rủi ro danh tiếng ” như một lý do để trì hoãn việc phát hành hệ thống AI đàm thoại chung của nó.


Tuy nhiên, do áp lực từ ChatGPT gây rối, Google đã phát hành Bard khiến gã khổng lồ công nghệ phải trả 100 tỷ đô la vì đưa ra phản hồi sai trong bản demo công khai đầu tiên.


Vào năm 2022, Meta đã phát hành Chatbot trí tuệ nhân tạo BlenderBot 3 nhưng đã tắt nó trong vòng hai ngày vì bot đã đưa ra những tuyên bố sai và phân biệt chủng tộc.


Vào năm 2016, Microsoft đã thu hồi chatbot AI của mình, Tay, trong vòng một tuần sau khi ra mắt vì nó phun ra nhận xét phân biệt chủng tộc và phân biệt giới tính .


Tuy nhiên, bất chấp hành vi đe dọa của Bing Chat, Microsoft đã phớt lờ cuộc gọi ngừng sử dụng Bing Chat và tăng gấp đôi việc triển khai AI của nó bằng cách thêm chatbot vào sản phẩm khác .


Có những lo ngại về đạo đức và pháp lý về cách các hệ thống AI được phát triển và sử dụng.


Mặc dù việc sử dụng chatbot của Koko mang ý nghĩa đạo đức nhiều hơn, nhưng vẫn có những trường hợp như hành vi phân biệt đối xử và vi phạm nhân quyền trong đó các công nghệ do AI cung cấp là nguyên nhân dẫn đến kiện tụng.


Tuy nhiên, sẽ khác khi AI trở nên bất hảo và đe dọa gây hại, như trường hợp của Bing Chat. Nên có ý nghĩa pháp lý? Và nếu có, ai sẽ bị kiện? Thật khó để xác định trách nhiệm, trách nhiệm giải trình và trách nhiệm pháp lý khi một hệ thống AI gây ra tổn hại hoặc thiệt hại.


Có bản quyền vụ kiện chống lại các công ty đứng sau các mô hình AI tổng quát phổ biến như ChatGPT, Midjourney và Stability AI. Nỗ lực sử dụng một Đại diện pháp lý do AI cung cấp đã bị loại bỏ do bị đe dọa truy tố và có thể phải ngồi tù.


Nếu các vụ kiện tụng đang diễn ra chống lại các phòng thí nghiệm AI và các công ty được ưu tiên, thì có thể an toàn khi cho rằng các nhà phát triển AI lừa đảo có thể phải chịu trách nhiệm về cách hệ thống AI của họ hoạt động sai.


Đối với những tổ chức vẫn đang suy nghĩ về việc liệu họ có phải chịu trách nhiệm pháp lý nếu công nghệ AI của họ gặp trục trặc hay không, Đạo luật Trí tuệ Nhân tạo của EU đã tiền phạt nặng cho các tổ chức phát triển hoặc sở hữu các hệ thống AI gây rủi ro cho xã hội và vi phạm nhân quyền.

Cách ngăn chặn hành vi thất thường trong AI

Trách nhiệm đảm bảo cách các hệ thống AI hoạt động thuộc về các nhà phát triển và doanh nghiệp sử dụng chúng trong hoạt động của họ.


Giống như đảm bảo bảo vệ dữ liệu, các doanh nghiệp và phòng thí nghiệm phải đảm bảo rằng các biện pháp kiểm soát thích hợp được triển khai để giảm thiểu thao tác trái phép đối với dữ liệu và mã AI.


Ngăn chặn AI giả mạo đòi hỏi sự kết hợp của các biện pháp kỹ thuật và phi kỹ thuật. Chúng bao gồm thử nghiệm mạnh mẽ, minh bạch, thiết kế đạo đức và quản trị.


Các biện pháp an ninh mạng đầy đủ như kiểm soát truy cập, quản lý lỗ hổng, cập nhật thường xuyên, bảo vệ dữ liệu và quản lý dữ liệu hiệu quả là rất quan trọng để đảm bảo ngăn chặn truy cập trái phép vào hệ thống AI.


Sự giám sát và cộng tác của con người với các bên liên quan khác nhau như nhà phát triển AI, nhà nghiên cứu, kiểm toán viên, người hành nghề luật và nhà hoạch định chính sách có thể giúp đảm bảo rằng các mô hình AI được phát triển một cách đáng tin cậy và có trách nhiệm.


Ảnh của Tierney - stock.adobe.com

Hội ủng hộ AI có trách nhiệm

Chỉ trong ba tháng, ChatGPT đã thay đổi thế giới của chúng ta. Có tiềm năng lớn cho các bot đàm thoại sáng tạo và các hệ thống AI khác để phá vỡ các hoạt động kinh doanh, nâng cao trải nghiệm của khách hàng, biến đổi xã hội và tạo ra các cơ hội đổi mới.


Tuy nhiên, các hệ thống AI có thể gặp trục trặc nếu chúng không được phát triển và triển khai một cách an toàn và có trách nhiệm. AI lừa đảo có thể gây rủi ro nghiêm trọng cho người dùng và xã hội. Các nhà phát triển AI và doanh nghiệp sử dụng hệ thống AI có thể phải chịu trách nhiệm pháp lý nếu hệ thống AI của họ gây ra tác hại hoặc thiệt hại.


Việc đảm bảo rằng các hệ thống AI hoạt động như dự định liên quan đến trách nhiệm tập thể của các nhà phát triển, người dùng và nhà hoạch định chính sách AI.


Các biện pháp kỹ thuật, phi kỹ thuật và quy định phù hợp phải được áp dụng để xác minh rằng AI được phát triển và triển khai theo cách an toàn, bảo mật và có lợi cho xã hội.

L O A D I N G
. . . comments & more!

About Author

Funso Richard HackerNoon profile picture
Funso Richard@funsor
Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

chuyên mục

BÀI VIẾT NÀY CŨNG CÓ MẶT TẠI...