Nhà vật lý thiên văn Michael Garrett đề xuất rằng đó có thể là do người ngoài hành tinh phải đối mặt với một vấn đề tồn vong do siêu trí tuệ nhân tạo (ASI) gây ra. (Ảnh: Pixabay)
Nếu chúng ta đơn độc trong vũ trụ, nhà vật lý thiên văn Michael Garrett nói rằng đó có thể là do người ngoài hành tinh phải đối mặt với một vấn đề tồn vong mà chúng ta chỉ mới bắt đầu nhận ra: siêu trí tuệ nhân tạo (ASI).
Trong một nghiên cứu mới đăng trên tạp chí Acta Astronautica, Garrett đề xuất rằng sự ra đời của một siêu trí tuệ nhân tạo (ASI) có thể ngăn cản sự tồn tại lâu dài của các nền văn minh ngoài hành tinh, và có thể cản trở tiến trình họ trở thành các đế chế du hành vũ trụ, chinh phục các hành tinh.
Giả thuyết này thậm chí có thể giúp trả lời Nghịch lý Fermi – câu hỏi tại sao chúng ta vẫn chưa phát hiện ra các nền văn minh ngoài hành tinh nào trong khi vũ trụ vô cùng rộng lớn của chúng ta đầy rẫy những thế giới có thể ở được.
Trong một bài luận gửi cho The Conversation, Garrett đã viết: “Liệu AI có phải là ‘bộ lọc vĩ đại’ của vũ trụ – một ngưỡng khó vượt qua đến mức nó ngăn cản hầu hết sự sống phát triển thành các nền văn minh du hành vũ trụ không?”.
Theo Garrett, một ASI sẽ không chỉ thông minh hơn con người mà còn có khả năng “tăng cường năng lực của chính nó với tốc độ vượt xa quá trình tiến hóa của chúng ta nếu không có AI”.
Và những rủi ro “to lớn” nằm ở đây. Ví dụ, nếu các hệ thống AI giành được quyền kiểm soát khả năng quân sự, các cuộc chiến mà chúng tiến hành có thể phá hủy toàn bộ nền văn minh của chúng ta.
Garrett viết: “Trong kịch bản này, tôi ước tính tuổi thọ điển hình của một nền văn minh công nghệ có thể dưới 100 năm”.
Ông nói thêm: “Đó là khoảng thời gian từ khi loài người có khả năng nhận và phát tín hiệu giữa các ngôi sao (1960) cho đến sự xuất hiện theo ước tính của ASI (2040) trên Trái đất. Khoảng thời gian này ngắn một cách đáng báo động khi đặt trong thang thời gian hàng tỷ năm của vũ trụ”.
Chắc chắn, đề xuất của Garrett về “bộ lọc lớn” chỉ là một câu trả lời tiềm năng cho Nghịch lý Fermi. Lý do cũng có thể đơn giản là vì vũ trụ quá rộng lớn – và sự sống thông minh quá hiếm gặp, hoặc các khoảng thời gian quá lâu dài – để các nền văn minh gặp nhau.
Nhưng đừng vì thế mà đánh giá thấp những rủi ro của AI, ngay cả khi ngay hiện tại chúng vẫn có vẻ tương đối hiền lành. Có rất nhiều câu hỏi về tính hợp pháp của việc sử dụng các tài liệu có bản quyền, như sách và tác phẩm nghệ thuật, để đào tạo các mô hình AI tạo sinh. Chúng ta cũng phải đối mặt với tác động môi trường của công nghệ này, khi các máy tính cung cấp năng lượng cho nó tiêu thụ lượng điện và nước đáng kinh ngạc.
Những điều đó chưa hẳn là những dấu hiệu báo trước của một thảm họa AI đáng sợ, nhưng tình hình có thể nhanh chóng thay đổi. Để giải quyết những rủi ro đó, Garrett kêu gọi các quy định chặt chẽ về phát triển AI, đặc biệt là về việc tích hợp công nghệ này vào các hệ thống quân sự, chẳng hạn như cách Israel được cho là đang sử dụng AI để xác định các mục tiêu không kích ở Gaza.
Gaza cho biết: “Đã có bằng chứng cho thấy con người sẽ tự nguyện nhượng bộ quyền lực đáng kể cho các hệ thống ngày càng có khả năng, bởi vì chúng có thể thực hiện các nhiệm vụ hữu ích nhanh hơn và hiệu quả hơn nhiều mà không cần sự can thiệp của con người”.
“Điều này có nghĩa là chúng ta đã tiến gần tới một bờ vực nguy hiểm, nơi vũ khí tự hành hoạt động vượt ra ngoài ranh giới đạo đức và bỏ qua luật pháp quốc tế”.
Theo Futurism
NTD Việt Nam