AI không có khả năng hủy diệt nhân loại, nhưng nó có thể làm suy yếu các khả năng của con người. (Ảnh minh họa: needpix)
Sự phát triển mạnh mẽ của ChatGPT và các hệ thống trí tuệ nhân tạo tương tự đã gây ra nỗi lo lắng ngày càng gia tăng đối với AI. Trong vài tháng qua, các giám đốc điều hành và nhà nghiên cứu an toàn AI đã đưa ra các dự đoán, được gọi là “P(doom)”, về khả năng AI sẽ gây ra thảm họa quy mô lớn…
Nỗi lo lắng lên đến đỉnh điểm vào tháng 5/2023 khi tổ chức vận động và nghiên cứu phi lợi nhuận Trung tâm An toàn AI (Center for AI Safety) đưa ra tuyên bố với chỉ vỏn vẹn một câu: “Giảm thiểu nguy cơ con người bị hủy diệt bởi AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân”. Tuyên bố đã được ký bởi nhiều người giữ vai trò quan trọng trong lĩnh vực này, bao gồm các nhà lãnh đạo của OpenAI, Google và Anthropic, cũng như hai trong số những người được gọi là “bố già” AI: Geoffrey Hinton và Yoshua Bengio .
Bạn có thể hỏi làm thế nào những nỗi sợ hãi về sự sống còn như vậy diễn ra. Một kịch bản nổi tiếng là thí nghiệm tưởng tượng “công cụ tối đa hóa kẹp giấy” (paperclip maximizer) do nhà triết học Oxford, Nick Bostrom, đưa ra. Ý tưởng là một hệ thống AI được giao nhiệm vụ sản xuất càng nhiều kẹp giấy càng tốt có thể sẽ phá hủy mọi thứ, chẳng hạn như các nhà máy và gây ra tai nạn xe hơi, để tìm nguyên liệu thô.
Một kịch bản khác ít tốn tài nguyên hơn là một hệ thống AI được giao nhiệm vụ đặt bàn tại một nhà hàng nổi tiếng, tắt mạng di động và đèn giao thông để ngăn những khách hàng quen khác đặt trước bàn.
Cho dù là đồ dùng văn phòng hay bữa tối, thì ý tưởng cơ bản là giống nhau: AI đang nhanh chóng trở thành một trí tuệ không còn là của con người, giỏi hoàn thành mục tiêu nhưng nguy hiểm vì nó không nhất thiết phù hợp với các giá trị đạo đức của những người tạo ra nó. Và, trong phiên bản cực đoan nhất, lập luận này dẫn đến những lo lắng rõ ràng về việc AI sẽ nô lệ hóa hoặc tiêu diệt loài người.
Các tác hại trong thực tế
Trong vài năm qua, tôi và các đồng nghiệp tại Trung tâm Đạo đức Ứng dụng của UMass Boston đã nghiên cứu tác động của việc tương tác với AI đối với sự hiểu biết của mọi người về chính mình và tôi tin rằng những lo lắng đã bị thổi phồng và đẩy đi sai hướng.
Đúng vậy, khả năng tạo video và âm thanh giả mạo deepfake một cách thuyết phục của AI rất đáng sợ và nó có thể bị lạm dụng bởi những kẻ có ý đồ xấu. Trên thực tế, điều đó đã xảy ra: Các đặc vụ Nga có thể đã cố gắng làm bẽ mặt nhà phê bình điện Kremlin, Bill Browder, bằng cách gài bẫy ông ta trong một cuộc trò chuyện với hình ảnh đại diện của cựu Tổng thống Ukraine, Petro Poroshenko. Tội phạm mạng đã và đang sử dụng nhân bản giọng nói AI cho nhiều loại hành vi – từ trộm cắp công nghệ cao đến lừa đảo thông thường.
Các hệ thống ra quyết định AI cung cấp các đề xuất phê duyệt khoản vay và tuyển dụng có nguy cơ sai lệch thuật toán, vì dữ liệu đào tạo và các mô hình ra quyết định mà chúng dựa vào phản ánh các định kiến xã hội lâu đời.
Đây là những vấn đề lớn, và chúng đòi hỏi sự quan tâm của các nhà hoạch định chính sách. Nhưng chúng đã tồn tại được một thời gian và chúng hầu như không phải là thảm họa.
Sự so sánh khập khiễng
Tuyên bố từ Trung tâm An toàn AI đã gộp AI với đại dịch và vũ khí hạt nhân như một nguy cơ lớn đối với nền văn minh. Tuy nhiên, có vấn đề với sự so sánh đó. COVID-19 đã khiến gần 7 triệu người tử vong trên toàn thế giới, gây ra một cuộc khủng hoảng sức khỏe tâm thần lớn và liên tục, đồng thời tạo ra những thách thức kinh tế, bao gồm tình trạng thiếu hụt chuỗi cung ứng kinh niên và lạm phát tăng cao.
Vũ khí hạt nhân có lẽ đã giết chết hơn 200.000 người ở Hiroshima và Nagasaki vào năm 1945, cướp đi sinh mạng của nhiều người khác vì bệnh ung thư trong những năm sau đó, tạo ra nhiều thập kỷ lo lắng sâu sắc trong thời kỳ Chiến tranh Lạnh và đưa thế giới đến bờ vực hủy diệt trong cuộc khủng hoảng tên lửa Cuba vào năm 1962. Chúng cũng đã thay đổi tính toán của các nhà lãnh đạo quốc gia về cách phản ứng trước sự xâm lược quốc tế, như hiện đang diễn ra với cuộc xâm lược của Nga vào Ukraine.
AI hiện tại đơn giản là không thể đạt được khả năng gây ra những thảm họa như vậy. Kịch bản về kẹp giấy và những kịch bản tương tự khác chỉ là truyện khoa học viễn tưởng. Các ứng dụng AI hiện tại thực hiện các tác vụ cụ thể thay vì đưa ra các đánh giá tổng quát. Công nghệ còn lâu mới có thể quyết định và sau đó lập kế hoạch cho các mục tiêu và mục tiêu phụ cần thiết để chặn giao thông nhằm giành cho bạn một chỗ ngồi trong nhà hàng hoặc cho nổ tung một nhà máy sản xuất ô tô để thỏa mãn đòi hỏi của bạn về những chiếc kẹp giấy.
Công nghệ không chỉ thiếu khả năng phán đoán đa lớp phức tạp liên quan đến các tình huống này mà còn không có quyền truy cập tự động vào đủ các bộ phận trong cơ sở hạ tầng quan trọng của chúng ta để bắt đầu gây ra những thiệt hại kiểu đó.
AI gây ra mối đe dọa sống còn nào đối với con người?
Trên thực tế, có một mối nguy hại sống còn khi sử dụng AI, nhưng rủi ro đó tồn tại theo nghĩa triết học hơn là theo nghĩa tận thế. AI trong hình thức hiện tại có thể thay đổi cách mọi người nhìn nhận về chính mình. Nó có thể làm giảm khả năng và kinh nghiệm mà mọi người coi là cần thiết để trở thành con người.
Ví dụ, con người là sinh vật có khả năng quyết định. Mọi người cân nhắc hợp lý các chi tiết và đưa ra các quyết định hàng ngày tại nơi làm việc và trong cả thời gian rảnh rỗi về việc tuyển dụng, cho vay, xem gì, v.v. Nhưng ngày càng nhiều những quyết định được tự động hóa và đưa vào các thuật toán. Thế giới sẽ không kết thúc khi điều đó xảy ra. Nhưng mọi người sẽ dần dần mất đi khả năng tự đưa ra những quyết định. Nếu con người càng ít đưa ra các quyết định thì khả năng của họ trong việc đưa ra quyết định càng trở nên tồi tệ hơn.
Hoặc trong việc xem xét vai trò của sự tình cờ trong cuộc sống. Con người có những cuộc gặp gỡ tình cờ: tình cờ đến một địa điểm, gặp một người hoặc tham gia một hoạt động, rồi bị lôi cuốn vào đó. Họ sẽ đánh giá cao vai trò của sự tình cờ trong những phát hiện có ý nghĩa. Nhưng vai trò của các công cụ đề xuất theo thuật toán là giảm bớt sự ngẫu nhiên và thay thế nó bằng việc lập kế hoạch và dự đoán.
Cuối cùng, hãy xem xét khả năng viết của ChatGPT. Công nghệ này đang trong quá trình loại bỏ vai trò của việc làm bài tập trong giáo dục đại học. Nếu đúng như vậy, các nhà giáo dục sẽ mất đi một công cụ quan trọng để dạy học sinh cách tư duy phản biện.
Không hủy diệt nhưng làm suy yếu khả năng của con người
Vậy AI sẽ không làm nổ tung thế giới. Nhưng việc ngày càng chấp nhận nó một cách mù quáng trong nhiều phạm vi hạn hẹp có nghĩa là sự xói mòn dần một số kỹ năng quan trọng nhất của con người. Các thuật toán đã và đang làm suy yếu khả năng quyết định, sự tận hưởng những cuộc gặp gỡ tình cờ và việc trau dồi tư duy phản biện của con người.
Loài người sẽ vẫn sống sót sau những mất mát như vậy. Nhưng cuộc sống của chúng ta sẽ trở nên nghèo nàn trong quá trình này. Những lo lắng lớn xung quanh trận đại hồng thủy AI sắp tới, điểm kỳ dị, Skynet, hoặc bất kỳ cách nào bạn có thể nghĩ về nó, đã làm cho bạn không nhìn thấy những thiệt hại tinh vi hơn này. Hãy nhớ lại những dòng kết thúc nổi tiếng trong bài thơ “Những kẻ rỗng tuếch” của tác giả T.S. Eliot:
“Đây là cách thế giới kết thúc,
Không phải bằng một tiếng nổ mà là một tiếng thút thít”.
Bài viết này của tác giả Nir Eisikovits, Giáo sư Triết học và Giám đốc, Trung tâm Đạo đức Ứng dụng, UMass Boston, đăng lần đầu tiên trên The Conversation.
Bài viết chỉ phản ánh quan điểm của tác giả, không nhất thiết phản ánh quan điểm của NTD Việt Nam.
Theo The Conversation
Văn Thiện biên dịch
NTD Việt Nam