Nghiên cứu mới khẳng định các chương trình trí tuệ nhân tạo (AI) vẫn gặp khó khăn trong việc giải quyết các vấn đề cơ bản mà con người thực hiện dễ dàng. (Ảnh: Flickr/O’Reilly Internal)
Gần đây người ta bàn luận rất nhiều về trí tuệ nhân tạo tổng quát (AGI) – một mục tiêu phát triển trí tuệ nhân tạo (AI) mà mọi công ty ở Thung lũng Silicon hiện đang chạy đua để đạt được. AGI đề cập đến một điểm giả định trong tương lai khi các thuật toán AI sẽ có thể thực hiện hầu hết các công việc mà con người hiện đang làm. Theo lý thuyết này, sự xuất hiện của AGI sẽ mang lại những thay đổi cơ bản trong xã hội – mở ra một thế giới “hậu làm việc”, trong đó con người có thể ngồi thư giãn trong khi robot thực hiện hầu hết các công việc nặng nhọc…
Tuy nhiên, theo Yann LeCun, một nhà khoa học AI hàng đầu của Meta, trí tuệ nhân tạo sẽ không sớm trở nên tổng quát. Thật vậy, trong một bài báo được phát hành gần đây, LeCun lập luận rằng AI vẫn còn ngu ngốc hơn nhiều so với con người ở những khía cạnh quan trọng nhất.
Bài báo đó, được một loạt các nhà khoa học khác (bao gồm cả các nhà nghiên cứu từ các công ty khởi nghiệp AI khác, như Hugging Face và AutoGPT) tham gia, đã xem xét cách trí tuệ nhân tạo tổng quát so với con người bình thường. Để thực hiện điều này, nhóm nghiên cứu đã đưa ra một loạt câu hỏi có tính chất “đơn giản về mặt khái niệm đối với con người nhưng lại là thách thức đối với hầu hết các AI tiên tiến”. Các câu hỏi cũng được đưa ra cho một nhóm người tham gia và gửi tới phiên bản được trang bị plugin của GPT-4, mô hình ngôn ngữ lớn mới nhất của OpenAI. Nghiên cứu mới, vẫn chưa được bình duyệt, đã thử nghiệm các chương trình AI về cách chúng phản ứng với “các câu hỏi trong thế giới thực đòi hỏi một tập hợp các khả năng cơ bản như lý luận, xử lý đa phương thức, duyệt web và nói chung là sự thành thạo trong việc sử dụng công cụ”.
Các câu hỏi mà các nhà nghiên cứu đặt ra yêu cầu LLM phải thực hiện một số bước nhằm xác định thông tin để trả lời. Ví dụ: trong một câu hỏi, LLM được yêu cầu truy cập một trang web cụ thể và trả lời câu hỏi cụ thể về thông tin trên trang web đó; ở những nơi khác, chương trình sẽ phải thực hiện tìm kiếm chung trên web để tìm thông tin liên quan đến một người trong ảnh.
Kết quả là LLM không hoạt động tốt lắm.
Thật vậy, kết quả nghiên cứu cho thấy các mô hình ngôn ngữ lớn thường bị con người vượt qua khi xử lý các tình huống trong thế giới thực phức tạp hơn này.
Bài báo lưu ý: “Mặc dù thành công trong những nhiệm vụ khó khăn đối với con người, nhưng những LLM có năng lực nhất lại hoạt động kém trong GAIA. Ngay cả khi được trang bị các công cụ, GPT4 không vượt quá tỷ lệ thành công 30% đối với những nhiệm vụ dễ nhất và 0% đối với những nhiệm vụ khó nhất. Trong khi đó, tỷ lệ thành công trung bình của con người là 92%”.
Nghiên cứu kết luận: “Chúng tôi giả định rằng sự ra đời của Trí tuệ nhân tạo tổng quát (AGI) phụ thuộc vào khả năng của hệ thống trong việc thể hiện sự mạnh mẽ tương tự như con người bình thường trong những câu hỏi như vậy”.
LeCun đã tách khỏi các nhà khoa học AI khác, những người mà một vài trong số họ đã hồi hộp nói về khả năng AGI được phát triển trong thời gian tới. Trong các tweet gần đây, nhà khoa học Meta đã chỉ trích mạnh mẽ năng lực công nghệ hiện tại của ngành, cho rằng AI không thể sánh bằng năng lực của con người.
LeCun cho biết trong một tweet gần đây: “Ít nhất là từ năm 2016, tôi đã lập luận rằng các hệ thống AI cần phải có các mô hình nội tại của thế giới cho phép chúng dự đoán hậu quả của hành động của mình, từ đó cho phép chúng suy luận và lập kế hoạch. Các mô hình Current Auto-Regressive LLM không có khả năng này, cũng như không có cái gì gần giống, và do đó chưa đạt đến trình độ Trí tuệ của con người. Trên thực tế, việc chúng hoàn toàn thiếu hiểu biết về thế giới vật chất và thiếu khả năng lập kế hoạch đã khiến chúng ở dưới mức trí thông minh của loài mèo, chưa nói đến mức độ của con người”.
Theo gizmodo
NTD Việt Nam