Trí tuệ nhân tạo (AI) có thể hủy diệt nhân loại như thế nào?

Giúp NTDVN sửa lỗi

Người ta tin tưởng rằng trí tuệ nhân tạo sẽ là công nghệ đỉnh cao cuối cùng của nhân loại. Tuy nhiên điều đó đồng nghĩa với việc con người có nguy cơ bị xóa sổ. Đó cũng là điều mà nhiều người đã nghĩ tới trong suốt 20 năm qua. Người ta đã nghĩ tới một viễn cảnh trong tương lai khi nền văn minh của nhân có thể bị diệt vong bởi các trí tuệ nhân tạo.

Có một số quan điểm bác bỏ ý tưởng rằng trí tuệ nhân tạo có thể tiêu diệt loài người của chúng ta. Quan điểm đó dường như không được ủng hộ. Không phải trí tuệ nhân tạo là không siêu việt mà là con người không thể ngăn chặn được viễn cảnh bị các cỗ máy điều khiển. Thay vào đó, ý kiến phản đối này đề xuất rằng một chiếc máy tính rất thông minh đơn giản là sẽ không có phương tiện hoặc động lực để hủy diệt nhân loại.

Mất kiểm soát và hiểu biết

Hãy tưởng tượng các hệ thống có mức độ thông minh bằng hoặc hơn cả trí thông minh của con người. Dù là sinh học hay nhân tạo. Bộ não của con người được nâng cao triệt để (hoặc thậm chí là bộ não của động vật không phải của con người) có thể đạt được thông qua sự hội tụ của kỹ thuật di truyền, công nghệ nano, công nghệ thông tin và khoa học nhận thức, trong khi trí thông minh máy móc vượt trội hơn con người có thể hình thành nhờ những tiến bộ trong khoa học máy tính, nhận thức khoa học và mô phỏng toàn bộ não bộ.

Và bây giờ hãy tưởng tượng nếu một trong những hệ thống này xảy ra sự cố hoặc nếu người ta sử dụng chúng làm vũ khí. Con người có thể sẽ không thể kiểm soát các hệ thống này sau khi chúng xuất hiện, cũng như không thể dự đoán cách các hệ thống trí tuệ nhân tạo này sẽ nghe theo điều khiển của họ hay không.

“Đây là vấn đề được gọi là vấn đề kiểm soát”, Susan Schneider, giám đốc Trung tâm Tâm trí Tương lai và là tác giả của Người bạn nhân tạo: Trí tuệ Nhân tạo và trí tuệ tương lai, giải thích trong một email: “Vấn đề chỉ đơn giản là làm thế nào để điều khiển một AI thông minh hơn chúng ta rất nhiều”.

Đối với các phép tính toán tương tự, Schneider đã chỉ ra kịch bản kẹp giấy nổi tiếng, trong đó một nhà sản xuất kẹp giấy sở hữu trí tuệ nhân tạo được lập trình kém đặt ra mục tiêu tối đa hóa hiệu quả sản xuất kẹp giấy. Đổi lại, nó phá hủy hành tinh bằng cách chuyển đổi tất cả vật chất trên Trái đất thành những chiếc kẹp giấy, một loại rủi ro được triết gia Oxford Nick Bostrom mệnh danh là “hiện tượng sai lầm” trong cuốn sách năm 2014 của ông.

Hay đơn giản hơn, có câu chuyện về thần đèn ma thuật cũ, trong đó việc ban cho ba điều ước kết cục "không bao giờ diễn ra tốt đẹp", Schneider nói: “Mối quan tâm chung ở đây là chúng ta sẽ yêu cầu siêu trí tuệ làm điều gì đó và bởi vì chúng ta không hiểu và điều khiển hoàn toàn chính xác nhiều tính năng chi tiết, điều đó sẽ diễn giải sai mong muốn của chúng ta, dẫn đến kết quả không như dự đoán ban đầu".

Ví dụ: chúng ta có thể đưa ra yêu cầu để một phương tiện khai thác năng lượng mặt trời hiệu quả, thúc đẩy trí tuệ siêu việt chiếm đoạt toàn bộ tài nguyên của hành tinh chúng ta để xây dựng một mảng năng lượng mặt trời khổng lồ. Yêu cầu một trí tuệ siêu việt để “tối đa hóa hạnh phúc của con người” có thể buộc nó phải quay lại các trung tâm khoái cảm trong não của chúng ta hoặc tải bộ não của con người vào một siêu máy tính, buộc chúng ta phải trải qua vòng lặp hạnh phúc kéo dài 5 giây cho vĩnh viễn, như Bostrom suy đoán. Một khi siêu trí tuệ nhân tạo xuất hiện, sự diệt vong có thể đến theo một số cách kỳ lạ và bất ngờ.

Eliezer Yudkowsky, một nhà lý thuyết AI tại Viện Máy móc Trí tuệ Nhân tạo, nghĩ về trí tuệ siêu việt nhân tạo là các quá trình tối ưu hóa, hoặc một "hệ thống đánh trúng các mục tiêu nhỏ trong không gian tìm kiếm lớn để tạo ra các hiệu ứng thế giới thực mạch lạc", như anh viết trong bài luận của mình "Trí tuệ nhân tạo đem lại các yếu tố tích cực và bên cạnh đó cũng là tiêu cực trong rủi ro toàn cầu. Vấn đề là, những quy trình này có xu hướng khám phá nhiều chức năng của trí tuệ nhân tạo, và chúng ta không thể tưởng tưởng hết được những khả năng đó tới mức nào”.

Như Yudkowski đã viết: “Tôi đến thăm một thành phố xa xôi, và một người bạn địa phương tình nguyện chở tôi đến sân bay. Tôi không biết khu vực lân cận. Khi bạn tôi đến một ngã tư đường phố, tôi không biết dự đoán các ngã rẽ của bạn mình, riêng lẻ hoặc tuần tự. Tuy nhiên, tôi có thể đoán trước được kết quả của những hành động không thể đoán trước của bạn tôi: chúng tôi sẽ đến sân bay. Ngay cả khi nhà của bạn tôi nằm ở nơi khác trong thành phố, để bạn tôi thực hiện một chuỗi các ngã rẽ hoàn toàn khác, tôi cũng sẽ tự tin dự đoán điểm đến của chúng tôi. Nói một cách khoa học thì đây không phải là một tình huống kỳ lạ. Tôi có thể dự đoán kết quả của một quy trình, mà không thể dự đoán bất kỳ bước trung gian nào trong quy trình.

Bị tách biệt khỏi bối cảnh của con người và được thúc đẩy bởi lập trình dựa trên mục tiêu của nó, một cỗ máy có thể gây ra thiệt hại đáng kể khi cố gắng đi từ A đến B. Chắc chắn rằng, một AI cũng có thể sử dụng và lạm dụng con người như một nguồn lực mạnh mẽ đã có từ trước khi cố gắng để đạt được mục tiêu, và theo những cách mà chúng ta không thể đoán trước được.

Làm cho AI thân thiện

Người ta đã cân nhắc đến các vấn đề đạo đức khi tạo ra một lập trình AI nhằm tránh một số cạm bãy nhất định. Nhưng như Yudkowski chỉ ra, chúng ta sẽ không thể dự đoán tất cả các tình huống không mong đợi mà một trí thông minh có thể đi theo.

Một trí thông minh nhân tạo giả định (AGI) sử dụng các tính năng thông minh thích ứng và tính linh hoạt của nó để “điều khiển con người theo nhiều cách khác nhau. Ảnh minh họa: Pixabay

Nhiều kịch bản nguy hiểm hơn có thể xảy ra , trong đó trí tuệ nhân tạo chiếm lĩnh thế giới thông qua kỹ thuật xã hội xảo quyệt và thu thập thông tin tài nguyên có giá trị. Trong cuốn sách của mình, Tegmark mô tả “Prometheus”, một trí thông minh nhân tạo giả định (AGI) sử dụng các tính năng thông minh thích ứng và tính linh hoạt của nó để “điều khiển con người theo nhiều cách khác nhau” và những người chống lại không thể “chỉ cần tắt Prometheus”.

Trí thông minh nhân tạo có thể được sử dụng để phát minh ra trí tuệ siêu việt. Thời đại tương ứng, trong đó chúng ta chứng kiến “sự bùng nổ trí tuệ nhân tạo thông minh”, có thể dẫn đến một số kết quả nghiêm trọng không như mong đợi.

Tự nó, sự ra đời của trí tuệ nhân tạo, máy móc thông minh nói chung, chắc chắn sẽ rất hoành tráng và có khả năng là một bước ngoặt trong lịch sử loài người. Tegmark viết: Một trí thông minh nhân tạo chung “sẽ đủ khả năng để thiết kế đệ quy AGI ngày càng tốt hơn mà cuối cùng chỉ bị giới hạn bởi các định luật vật lý, cho phép trí thông minh vượt xa trí tuệ con người”. Nói cách khác, trí thông minh nhân tạo có thể được sử dụng để phát minh ra siêu trí tuệ. Thời đại tương ứng, trong đó chúng ta chứng kiến “sự bùng nổ trí tuệ thông minh nhân tạo”, có thể dẫn đến một số hậu quả nghiêm trọng không như mong đợi.

Cách thức và phương tiện

Tegmark viết: “Nếu một nhóm người kiểm soát được sự bùng nổ trí thông minh nhân tạo, họ có thể chiếm lĩnh thế giới trong vài năm tới. Nếu con người không kiểm soát được sự bùng nổ trí thông minh, bản thân AI có thể tiếp quản thế giới nhanh hơn”.

Một lỗ hổng quan trọng khác liên quan đến cách mà con người ngày càng bị loại khỏi vòng lặp công nghệ. Nổi bật là các thuật toán hiện đang chịu trách nhiệm về tỷ trọng khối lượng giao dịch cổ phiếu của sư tử và các thuật toán hiện có khả năng đánh bại các phi công F-16 của con người trong các cuộc chiến trên không. Càng ngày, AI càng được yêu cầu đưa ra những quyết định lớn mà không cần sự can thiệp của con người.

Schneider lo lắng rằng "đã có một cuộc chạy đua vũ trang AI trong quân đội" và "sự phụ thuộc ngày càng nhiều vào AI sẽ khiến khả năng nhận thức và hiểu biết của con người không thể đáp ứng các thách thức quân sự nhanh một cách kịp thời. Chúng tôi sẽ yêu cầu AI làm điều đó cho chúng tôi, nhưng chúng tôi không biết làm thế nào để có thể biết bằng cách nào chúng tôi có thể tiếp tục giữ con người trong vòng lặp công nghệ đó. Có thể tưởng tượng rằng AI cuối cùng sẽ phải quyết định thay mặt chúng ta khi đối đầu với các cuộc tấn công quân sự trước khi chúng ta có cơ hội tổng hợp dữ liệu”, Schenider giải thích.

Con người dễ mắc sai lầm, đặc biệt là khi phải chịu áp lực trên chiến trường, nhưng những tính toán sai lầm hoặc xử lý sai của AI sẽ tạo ra một rủi ro lớn. Một sự cố từ năm 1983, trong đó hệ thống cảnh báo sớm của Liên Xô suýt dẫn đến chiến tranh hạt nhân.

Tác giả khoa học viễn tưởng Isaac Asimov đã dự đoán trước được điều này. Mặc dù đã nỗ lực hết mình, và những người máy trong tiểu thuyết của ông bị hạn chế bởi ba định luật về người máy, nhưng chúng ta vẫn gặp phải nhiều rắc rối. Những vấn đề tương tự có thể xuất hiện nếu chúng ta tiếp tục cố gắng làm điều gì đó giống như vậy. Như Schneider đã chỉ ra, việc tuân thủ về một quy tắc đạo đức để định hướng cho các người máy nhân tạo của chúng ta sẽ rất khó khăn.

Tuy nhiên, ông nói: “ Chúng ta có rất ít sự lựa chọn. Làm ngơ trước thất bại thực sự không phải là một lựa chọn, cho dù chỉ là vấn đề tiền cược".

Điều mà chúng ta đang bị đe dọa là một loạt các thảm họa tiềm tàng trên toàn hành tinh, ngay cả trước khi xuất hiện siêu trí tuệ nhân tạo.

Con người rất kém cỏi trong việc đối phó với các thảm họa toàn cầu.

Có rất ít thông tin chính xác về SARS-CoV-2 và các biến thể rắc rối của nó. Nhưng virus này hoạt động thụ động bằng cách khai thác các sơ hở của chúng ta, cho dù những lỗ hổng đó thuộc bản chất sinh học hay xã hội. Virus gây bệnh covid-19 có thể chống lại các biện pháp đối phó của chúng ta, nhưng chỉ thông qua các quá trình đột biến và chọn lọc ngẫu nhiên, vốn luôn bị ràng buộc bởi những ràng buộc của sinh học. Đáng lo ngại hơn, một AI độc hại có thể thiết kế loại virus có “IQ thấp” của riêng mình và liên tục điều chỉnh nó để tạo ra các biến thể mới chết người để chống lại các biện pháp đối phó của chúng ta.

Yampolskiy đã nói điều này trong những ngày đầu của đại dịch:

“Đáng buồn thay, có rất nhiều cách để trí tuệ nhân tạo kết thúc nền văn minh của nhân loại. Không phải bằng hành vi thô bạo đơn giản, mà theo một cách tinh vi đáng sợ hơn. AI có khả năng tự thiết kế thích ứng, nâng cao nhận thức tình huống và phản xạ tính toán nhanh như chớp. Tiếp theo, liệu có thể tạo ra AI an toàn, có lợi và dựa trên nền tảng đạo đức không? Lựa chọn duy nhất mà chúng ta có thể làm là đưa ra lệnh cấm sự phát triển AI siêu thông minh trên phạm vi toàn cầu. Thật khó để có thể đạt được điều đó, nhưng đây là vấn đề thực sự rất cần thiết, nếu chúng ta không muốn bị AI tiêu diệt".

Ngọc Mai

Khoa học Công nghệ


BÀI CHỌN LỌC

Trí tuệ nhân tạo (AI) có thể hủy diệt nhân loại như thế nào?