Cùng với hàng nghìn chuyên gia về trí tuệ nhân tạo (AI) và các nhà quản lý hàng đầu trong lĩnh vực công nghệ, Elon Musk đang kêu gọi tạm ngừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng 6 tháng tới vì những rủi ro tiềm ẩn với xã hội.
Lời kêu gọi được đưa ra trong một bức thư ngỏ do tổ chức phi lợi nhuận Future of Life Institute phát hành. Bức thư có chữ ký của hơn 1.000 chuyên gia và nhà quản lý, trong đó có Elon Musk, CEO Stability AI Emad Mostaque, các nhà nghiên cứu tại DeepMind – công ty AI thuộc sở hữu của Alphabet, cùng những tên tuổi lớn trong mảng này như Yoshua Bengio và Stuart Russell.
Bức thư kêu gọi tạm dừng phát triển AI tiên tiến cho đến khi có các giao thức an toàn chung, được áp dụng và thẩm định bởi chuyên gia độc lập.
“Các hệ thống AI mạnh chỉ nên được phát triển khi chúng ta tin tưởng rằng chúng sẽ mang lại những tác động tích cực và có thể kiểm soát rủi ro”, bức thư có đoạn.
Bức thư cũng nêu rõ những rủi ro tiềm ẩn đối với xã hội và nền văn minh nhân loại khi AI cạnh tranh với con người như gián đoạn kinh tế và chính trị, đồng thời cho rằng các nhà phát triển cần hợp tác với các nhà hoạch định chính sách và các cơ quan quản lý về các vấn đề liên quan đến quản trị AI.
Reuters dẫn nguồn tin cho biết, Future of Life Institute là tổ chức được tài trợ bởi Musk Foundation – quỹ từ thiện riêng của Elon Musk, quỹ Founders Pledge có trụ sở tại Anh và quỹ Silicon Valley Community Foundation – quỹ từ thiện lớn nhất tại Thung Lũng Silicon.
Bức thư được đưa ra sau khi Lực lượng cảnh sát chung châu Âu (Europol) bày tỏ lo ngại về vấn đề đạo đức và pháp lý đối với AI, cảnh báo các công cụ tiên tiến như ChatGPT có thể bị kẻ xấu lợi dụng để cung cấp thông tin sai lệch, thực hiện các chiêu lừa đảo công nghệ cao.
Trong khi đó, chính phủ Anh cũng đã công bố các đề xuất về khung pháp lý “thích ứng” xung quanh AI. Cụ thể, cơ quan quản lý nước này sẽ phân chia trách nhiệm quản lý AI về nhân quyền, cạnh tranh, sức khỏe và an toàn, thay vì đề ra một cơ quan mới dành riêng cho công nghệ.
Musk đã lên tiếng bày tỏ những lo ngại về AI, dù hãng Tesla của ông đang dùng công nghệ này trong hệ thống lái tự động.
Kể từ khi ra mắt vào năm ngoái, ChatGPT của OpenAI đã “gây bão” trong cộng đồng. Hàng loạt đối thủ đã tăng tốc phát triển các mô hình ngôn ngữ lớn tương tự, trong khi nhiều công ty đẩy mạnh tích hợp các mô hình AI tổng quát vào sản phẩm của họ.
Trao đổi với Reuters, phát ngôn viên của Future of Life cho biết, Sam Altman, CEO OpenAI, đã không ký vào bức thư. OpenAI chưa trả lời yêu cầu bình luận.
Gary Marcus, giáo sư tại Đại học New York, một trong những người tham gia kêu gọi, cho biết: “Bức thư không hoàn hảo, nhưng tinh thần là đúng đắn. Chúng ta cần hành động cẩn trọng hơn cho đến khi hiểu rõ những tác động của AI”.
“Chúng có thể gây ra những tác hại nghiêm trọng. Các công ty công nghệ ngày càng giữ bí mật về những dự án mới, khiến chúng ta khó “chống trả” hơn khi rủi ro xảy đến”.
Vì sao Elon Musk và tinh hoa giới công nghệ sợ hãi về AI
Theo Reuters, vào ngày 29/3, tỷ phú Elon Musk cùng nhiều chuyên gia công nghệ đã cùng ký vào lá thư do Future of Life Institute (Viện Tương lai Sự sống) đưa ra kêu gọi tạm dừng cuộc đua phát triển trí tuệ nhân tạo (AI).
Nổi bật trong nhóm người phản đối sự phát triển AI có thể kể đến Steve Wozniak – đồng sáng lập Apple, Yuval Noah Harari – tác giả sách và nhà sử học, Emad Mostaque – CEO của Stability AI cùng nhiều giáo sư và chuyên gia đã dành phần lớn sự nghiệp để nghiên cứu về trí tuệ nhân tạo như Yoshua Bengio hay Stuart Russell.
Musk cùng những nhân vật kiệt xuất của giới công nghệ lập luận rằng loài người vẫn chưa biết đến toàn bộ phạm vi rủi ro liên quan đến việc phát triển AI. Bức thư cũng đưa ra lo ngại cuộc chạy đua phát triển AI sẽ gây ra nguy cơ sâu sắc cho xã hội và nhân loại, bên cạnh những tác động ‘thảm khốc’.
Nỗi sợ của giới tinh hoa công nghệ
Trong cuộc phỏng vấn với ABC News hôm 16/3, CEO Sam Altman của OpenAI – cha đẻ ChatGPT cũng từng nhấn mạnh rằng cả nhà làm luật và xã hội đều cần quan tâm đến chatbot AI để phòng tránh những hậu quả của nó đến nhân loại.
“Chúng ta cần phải cẩn thận và nên cảm thấy vui vẻ vì mình đã bắt đầu có ý thức cảnh giác với AI”, Altman khẳng định trong buổi phỏng vấn.
Thực tế, các lập trình viên, nhà nghiên cứu hay nhiều CEO công nghệ nổi tiếng đều đã gióng lên hồi chuông cảnh báo về trí tuệ nhân tạo trong nhiều thập kỷ qua.
Tuy nhiên, công nghệ này vẫn tìm được đường vào hầu hết mọi ngóc ngách trong cuộc sống hiện đại, từ các công cụ tìm kiếm, cho đến ôtô tự hành hay đề xuất của những ứng dụng giải trí như Netflix.
Nguồn gốc của ChatGPT phải kể đến từ những năm 1960, khi giáo sư Joseph Weizenbaum tạo ra chatbot đầu tiên trên thế giới có tên Eliza.
Kể từ đó, chatbot đã ngày càng thông minh và tương tác nhiều hơn, ví dụ như Alexa của Amazon và Siri của Apple.
Mặc dù vậy, cha đẻ của chatbot lại là người đầu tiên cảnh báo về rủi ro của công nghệ này. Sau thành công của Eliza, nhiều dự án ở Mỹ được thành lập nhằm giúp máy tính hiểu được lời nói của con người.
Weizenbaum tin rằng điều này sẽ dẫn đến việc máy tính sẽ theo dõi rộng rãi cách con người giao tiếp hàng ngày, từ đó chọn ra các cuộc thảo luận liên quan cho các đặc vụ chính phủ.
Ngoài ra, Weizenbaum cho rằng với số tiền cần thiết để tạo ra hệ thống xử lý giọng nói quy mô lớn, chỉ có các cơ quan chính phủ hoặc các tập đoàn lớn mới có thể đảm nhận chúng.
Trong khi đó, thiên tài vật lý Stephen Hawking dù là người dựa vào AI để có thể giao tiếp hàng ngày do mắc chứng xơ cứng teo cơ một bên (ALS), từng đưa ra cảnh báo rằng công nghệ này đang trở nên thông minh một cách nguy hiểm và thậm chí có thể kết liễu loài người.
Hawking tiếp tục nói thêm về nỗi sợ này trong một chủ đề trên Reddit năm 2015. Khi đó, có người đã hỏi thiên tài vật lý rằng liệu ông có đồng ý với ý kiến cho rằng nỗi sợ hãi về AI mà chúng ta thấy trong các bộ phim như Terminator liệu bị đặt nhầm chỗ hay không.
Đáp lại, Hawking cho biết vấn đề với AI sẽ đến trong tương lai khi một hệ thống có thể tạo ra và giải quyết các vấn đề của chính nó.
“Rủi ro thực sự với AI không phải là ác ý mà là năng lực của chúng. Một AI siêu thông minh sẽ cực kỳ giỏi trong việc hoàn thành các mục tiêu của nó và nếu những mục tiêu đó không phù hợp với loài người, chúng ta sẽ gặp rắc rối. Hãy khuyến khích học sinh không chỉ suy nghĩ về cách tạo ra AI mà còn về việc đảm bảo việc sử dụng nó có lợi”, Hawking trả lời.
Vì sao Elon Musk lại sợ ChatGPT đến thế?
Elon Musk thường là người tỏ rất háo hức về những công nghệ mới mà ông cho rằng là tương lai của nhân loại, từ ôtô điện cho đến dịch vụ Internet vệ tinh Starlink.
Tuy nhiên, khi nói đến trí tuệ nhân tạo, CEO Tesla lại tỏ ra lo sợ đến bất thường. Phát biểu tại Đại học MIT vào năm 2014, Musk gọi AI là “mối đe dọa hiện hữu lớn nhất” của nhân loại và so sánh nó với việc “triệu hồi quỷ dữ”.
Ít ai biết rằng người đàn ông giàu nhất hành tinh từng là một trong những nhà đầu tư kỳ cựu tại startup OpenAI, cha đẻ của ChatGPT.
OpenAI vốn là tổ chức phi lợi nhuận được thành lập vào năm 2015 và nhận được một số nguồn tài trợ từ CEO Tesla Elon Musk, đồng sáng lập LinkedIn Reid Hoffman và một số nhà đầu tư khác.
Thay vì theo đuổi lợi nhuận, OpenAI cam kết phát triển công nghệ vì lợi ích của nhân loại. Điều lệ thành lập của đơn vị cũng cam kết từ bỏ cuộc đua phát triển AI nếu một đối thủ cạnh tranh đạt mục tiêu trước.
Tuy nhiên, sau khi OpenAI đánh bại những game thủ hàng đầu của giải DotA 2 trực tuyến, Elon Musk cảnh báo về sự nguy hiểm của trí tuệ nhân tạo, nói rằng nó thậm chí còn nguy hiểm hơn các chương trình hạt nhân của Triều Tiên.
Đối với nhiều người, thậm chí nhiều nhà nghiên cứu máy học, một AI có thể vượt qua con người có vẻ như là một giấc mơ xa vời. Thực tế, các startup và những chuyên gia về AI vẫn đang vật lộn để giải quyết các vấn đề thậm chí có vẻ đơn giản với máy học.
Tiêu biểu nhất có thể kể đến như ôtô tự hành gặp rất nhiều khó khăn trong những điều kiện bất thường vì nhiều thứ vốn xuất phát từ bản năng của con người như dự đoán chuyển động của người đi xe đạp, xác định một chiếc túi ni lông đang bay trong gió.
Đó là những khái niệm mà con người rất khó để chỉ dạy cho máy tính. Khả năng AI có thể hơn con người dường như vẫn là một chặng đường dài.
Tuy nhiên, lo lắng của Musk không hẳn là vô lý. Các nhà khoa học về AI tại Đại học California ở Berkeley hay Đại học Oxford năm 2018 liên tiếp công bố các kết quả nghiên cứu đồng ý với CEO Tesla rằng AI có thể trở nên cực kỳ nguy hiểm.
“Khi con người gặp lửa và bị bỏng, chúng tôi đã phát minh ra bình chữa cháy. Khi chúng ta có ôtô và gặp rắc rối, chúng tôi đã phát minh ra dây an toàn, túi khí và đèn giao thông. Nhưng với vũ khí hạt nhân và AI, chúng ta không muốn học hỏi từ những sai lầm của mình. Chúng tôi muốn lên kế hoạch từ trước khi điều đó xảy ra”, Max Tegmark, một giáo sư vật lý tại đại học MIT cho biết.
Đến đầu năm 2018, nói với nhà đồng sáng lập Sam Altman, Elon Musk cho rằng OpenAI đang bị thua kém so với Google. Do đó, Musk đề xuất giải pháp rằng ông sẽ nắm quyền lãnh đạo tại OpenAI và tự bỏ vốn vận hành công ty.
Tuy nhiên, nhiều lãnh đạo OpenAI, bao gồm cả nhà đồng sáng lập Greg Brockman và Sam Altman không chấp nhận yêu cầu mua lại của Elon Musk. Đây chính là lý do khiến vị tỷ phú rời khỏi ban quản trị OpenAI vào năm 2018, đồng thời rút khoản đầu tư khổng lồ đã định trước.
Mối quan hệ giữa Elon Musk và OpenAI liên tiếp gặp vấn đề trong những năm gần đây. Năm 2020, Musk đã nói trên Twitter rằng niềm tin của ông đối với tính bảo mật của công ty này là không cao.
“OpenAI nên công khai hơn nữa”, vị tỷ phú tweet về cuộc điều tra của MIT Technology Review với OpenAI. Gần đây nhất, Elon Musk cho biết ông đang tạm dừng quyền truy cập của OpenAI vào cơ sở dữ liệu Twitter sau khi biết công ty này đang sử dụng nền tảng mạng xã hội này để đào tạo ChatGPT.
Nguồn: Reuters/NDH, Zingnews
Xem thêm bài liên quan
- CEO OpenAI Sam Altman xác nhận tạm dừng phát triển ChatGPT do lo ngại các nguy cơ có thể xảy ra cho xã hội và nhân loại
- Mối quan hệ bí mật giữa Elon Musk và OpenAI và lý do ông không còn kiểm soát “AI thông minh nhất” ChatGPT nữa dù từng là nhà đầu tư lớn nhất
- Tỷ phú Elon Musk lại mất ngôi giàu nhất thế giới sau 2 ngày chỉ vì bài phát biểu dài 3 tiếng về A.I: Niềm vui ngắn chẳng tày gang?