Các nhân viên cũ và hiện tại của OpenAI đã công bố một bức thư ngỏ cáo buộc rằng họ đang bị ngăn cản trong việc nêu lên những mối lo ngại về an toàn liên quan đến trí tuệ nhân tạo. (Ảnh: Pexels)
Vào ngày 4/6, các nhân viên cũ và hiện tại của OpenAI đã công bố một bức thư ngỏ cáo buộc rằng họ đang bị ngăn cản trong việc nêu lên những mối lo ngại về an toàn liên quan đến trí tuệ nhân tạo. Một trong những người ký tên vào bức thư gần đây thậm chí còn đưa ra một dự đoán đáng sợ rằng AI có thể hủy diệt nhân loại.
Cựu nhà nghiên cứu quản trị OpenAI Daniel Kokotajlo cảnh báo về các mối đe dọa do trí tuệ nhân tạo tổng quát (AGI) gây ra. Ông cáo buộc công ty đã bỏ qua những rủi ro to lớn đó bởi vì họ đang bị mê hoặc bởi những khả năng của công nghệ này.
Theo Kokotajlo, OpenAI rất hào hứng với việc xây dựng AGI và đang liều lĩnh chạy đua để trở thành công ty đầu tiên tạo ra nó. Ông thậm chí còn tuyên bố rằng khả năng AI sẽ tiêu diệt nhân loại là 70%. Đây một xác suất không thể chấp nhận đối với bất kỳ tiến bộ công nghệ lớn nào, nhưng Kokotajlo nói rằng công ty vẫn đang kiên trì theo đuổi mục tiêu. Công đồng trí tuệ nhân tạo cũng phải đối mặt với “xác suất diệt vong” hay “p(doom)”, một chủ đề không ngừng gây tranh cãi.
Khi gia nhập OpenAI vào năm 2022, Kokotajlo, một chuyên gia trí tuệ nhân tạo 31 tuổi, được giao nhiệm vụ dự đoán xu hướng phát triển của công nghệ AI trong tương lai. Với kinh nghiệm và hiểu biết sâu rộng, ông đã đưa ra nhận định rằng không chỉ trí tuệ nhân tạo tổng quát (AGI) sẽ trở thành hiện thực vào năm 2027, mà còn tồn tại nguy cơ công nghệ này có thể gây ra những tổn hại nghiêm trọng đối với nhân loại.
Bên cạnh Kokotajlo, bức thư ngỏ này cũng nhận được sự tham gia của Geoffrey Hinton, người được xem là “Bố già của AI” và đã rời khỏi Google vì những quan ngại tương tự về vấn đề an toàn. Nhóm công bố thư ngỏ này khẳng định rằng họ có “quyền được cảnh báo” cho công chúng về các mối đe dọa tiềm tàng từ công nghệ AI.
Cá nhân Kokotajlo từng đích thân kêu gọi Giám đốc điều hành OpenAI Sam Altman rằng công ty cần dành nhiều thời gian hơn để triển khai các biện pháp phòng thủ để kiểm soát công nghệ này thay vì tiếp tục làm cho nó thông minh hơn. Altman dường như đồng ý với ông vào thời điểm đó, nhưng có vẻ đó chỉ là một lời hứa suông.
Cảm thấy chán nản, Kokotajlo đã quyết định nghỉ việc vào tháng 4. Ông chia sẻ với nhóm của mình rằng ông đã mất niềm tin vào việc công ty sẽ hành xử có trách nhiệm trong quá trình tiếp tục phát triển AI có trí tuệ gần đạt mức độ con người.
Khi bức thư ngỏ được công bố, OpenAI thể hiện lòng tin mạnh mẽ vào quá trình phát triển các hệ thống AI an toàn và hiệu năng cao. Công ty này tin tưởng vào phương pháp tiếp cận khoa học của mình trong việc giải quyết các rủi ro liên quan đến an toàn AI.
Trí tuệ nhân tạo tổng quát là gì?
Trí tuệ nhân tạo tổng quát (AGI) là một lĩnh vực nghiên cứu lý thuyết trong AI, nỗ lực hướng tới việc xây dựng phần mềm có khả năng tự học với trí thông minh tương đương con người. Phần mềm này được thiết kế để có thể thực hiện các nhiệm vụ mà không nhất thiết phải được huấn luyện hay phát triển trước.
Các công nghệ AI hiện tại hoạt động trong một tập hợp các tham số được xác định trước. Ví dụ, các mô hình trí tuệ nhân tạo được huấn luyện trong các tác vụ nhận dạng và tạo hình ảnh không thể xây dựng trang web. Trong AGI, các hệ thống AI sở hữu mức độ hiểu biết hợp lý, có khả năng tự kiểm soát và học các kỹ năng mới. Nó cũng được kỳ vọng sẽ giải quyết các vấn đề phức tạp trong các ngữ cảnh và tình huống chưa được dạy tại thời điểm tạo ra nó.
Về mặt lý thuyết, một hệ thống AGI có thể giải quyết các vấn đề trong các lĩnh vực khác nhau mà không cần can thiệp thủ công. Do đó, nó là biểu hiệu của một trí tuệ nhân tạo hoàn chỉnh với khả năng nhận thức tổng quát của con người. Cho đến nay, hệ thống AGI vẫn là một khái niệm lý thuyết và một mục tiêu nghiên cứu.
Theo Sciencetimes
NTD Việt Nam