"Bố già AI" rời khỏi Google, cảnh báo về một thế giới không có sự thật | Vietcetera
Billboard banner
Một chút thời gian, một hành trình sức khỏe tuyệt vời đang chờ bạn! 🌸 Tham gia khảo sát nhé!Bắt Đầu
04 Thg 05, 2023
ChatGPTTóm Lại Là

"Bố già AI" rời khỏi Google, cảnh báo về một thế giới không có sự thật

Liệu trí tuệ nhân tạo có chia rẽ giới tinh hoa như cách bom hạt nhân đã làm 80 năm về trước?
"Bố già AI" rời khỏi Google, cảnh báo về một thế giới không có sự thật

Nguồn: Bloomberg

1. Chuyện gì đã xảy ra?

Mới đây, nhà tâm lý học nhận thức và khoa học máy tính Geoffrey Hinton đã từ chức tại Google. Nhờ đó, ông công khai nói về sự nguy hiểm của trí tuệ nhân tạo (AI) mà không phải cân nhắc về sự ảnh hưởng của mình tới Google.

Hinton trả lời The New York Times: "Tôi tự an ủi mình bằng một lý do rất bình thường: Nếu mình không làm thì đã có người khác làm rồi." Ông muốn lên tiếng về công nghệ AI nói chung, thay vì phê phán trực tiếp Google. Jeff Dean, lãnh đạo của Google AI nói Hinton đã tại ra những đột phá nền tảng trong phát triển AI, và cảm ơn hơn 1 thập kỷ cống hiến của Hinton.

httpsimgvietceteracomuploadsimages04may20234l9myp9053ar20191118112535kinq1hnfl4528112537386jpgjpeg
Chân dung Geoffrey Hinton | Nguồn: RNZ

Geoffrey Hinton, 75 tuổi, nhận giải Turing năm 2018 (được ví như "Nobel Tin học") vì những đóng góp cho sự phát triển của trí tuệ nhân tạo. Trước đó, vào năm 2012, ông cùng hai sinh viên ở Đại học Toronto phát triển "mạng thần kinh nhân tạo" (neural network), vốn có thể giúp AI phân tích hàng nghìn bức ảnh và nhận diện được các vật thể phổ biến với độ chính xác kinh ngạc. Năm 2013, Google mua lại start-up của Hinton. Hai sinh viên của ông cũng nhanh chóng gia nhập OpenAI.

Nhiều trang mạng ví Geoffrey Hinton giống như J. Robert Oppenheimer, người chế tạo ra bom nguyên tử. Họ giống nhau ở điểm cùng phát triển những công nghệ có nhiều hiểm nguy. Nhưng Oppenheimer hối hận vì bom nguyên tử đã thành công trong việc làm đúng mục đích của nó, trong khi đó, AI còn quá nhiều tiềm năng chưa được khám phá hết.

2. Đâu là những quan ngại cụ thể của Geoffrey Hinton?

Những lo ngại của Geoffrey Hinton tập trung chủ yếu vào lĩnh vực an toàn thông tin. Ông cho rằng sự phát triển của AI hiện nay có thể khiến con người không còn nhận thức được đâu là sự thật. Internet sẽ tràn ngập hình ảnh và văn bản được tạo ra bởi AI, giống như cách MidJourney tự sản xuất ra hình ảnh từ những dữ liệu có sẵn mà nó thu thập được.

Hinton lo lắng trước "mối đe doạ hiện sinh" rằng AI có thể thông minh hơn con người, và được sử dụng bởi các tác nhân xấu. Đơn cử, AI có thể tự động tạo ra vô vàn văn bản một cách nhanh chóng nhằm thao túng quyết định chính trị của công chúng. Những "spambot" có thể can thiệp vào các cuộc bầu cử, giúp ích cho sự lên ngôi của các lãnh đạo độc tài.

Ông giải thích về trí thông minh của AI: "Tôi đưa đến kết luận rằng loại trí thông minh chúng ta đang cố phát triển thực ra là rất khác so với trí thông minh của chính chúng ta. Giả dụ, bạn có 10000 người, và khi một trong số đó học được điều gì, tất cả những người khác đều biết điều đó một cách tự động. Đó là lý do vì sao chatbot có thể biết nhiều hơn bất cứ cá nhân nào."

httpsimgvietceteracomuploadsimages04may2023dotdashfinalneuralnetworkapr2020015f4088dfda4c49d99a4d927c9a3a5ba0jpg
Mô phỏng đơn giản Mạng thần kinh nhân tạo | Nguồn: Investopia

Hinton cũng nói, AI có thể cướp việc làm, và tạo ra một thế giới mà chúng ta không biết đâu là sự thật nữa.

3. Ai chia sẻ chung lo ngại với "bố già AI"?

Geoffrey Hinton không phải người duy nhất có góc nhìn bi quan về AI. Tháng 3 vừa qua, một loạt các nhà lãnh đạo công nghệ, đứng đầu là Elon Musk, kêu gọi ngừng phát triển các hệ thống AI tiên tiến nhất trong ít nhất 6 tháng. Kiến nghị ký tên bởi Musk và hơn một nghìn chuyên gia đã được xuất bản bởi Viện Future of Life.

Hành động này nổ ra hai tuần sau khi OpenAI cho ra mắt ChatGPT4. Chatbot này đã có thể soạn thảo các vụ kiện, vượt qua mọi kỳ thi chuẩn hoá, và có thể xây dựng cả một website dựa trên những phác thảo bằng tay. OpenAI sau đó cũng tuyên bố họ sẽ không nhanh chóng phát triển ChatGPT5.

Bức thư viết cụ thể:

"Trí tuệ nhân tạo tiên tiến đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên trái đất và cần được lên kế hoạch và được quản lý với độ quan tâm và nguồn lực tương xứng. Thật không may, mức độ lập kế hoạch và quản lý này không diễn ra, dù những tháng gần đây, chúng ta được chứng kiến các phòng thí nghiệm AI bị cuốn vào cuộc chạy đua mất kiểm soát nhằm phát triển và triển khai các trí tuệ kỹ thuật số mạnh mẽ hơn bao giờ hết, mà không ai, kể cả những người tạo ra chúng, có thể hiểu dự đoán, hoặc kiểm soát một cách đáng tin cậy."

Elon Musk cũng tuyên bố đã nghỉ chơi với đồng sáng lập Google Larry Page, vì Page không xem xét nghiêm túc sự an toàn của AI, và muốn tạo ra "một Đức Chúa điện tử toàn năng trong thời gian nhanh nhất có thể."

4. Những lo ngại nào về AI đã thành sự thật?

Có thể nói là hầu hết các mối nguy hiểm của AI cho giới chuyên gia dự đoán đã thành hiện thực. Chúng đã có thể tự động sản xuất tin giả, bao gồm hình ảnh giả và các văn bản được nhào nặn từ nguồn thiếu kiểm chứng.

Chúng cũng có thể tạo ra "bot traffic," hay các luồng dư luận giả nhằm thổi view cho các sản phẩm truyền thông, dù dư luận là con người thật quan tâm đến các sản phẩm đó không thực sự nhiều. Nhiều nhãn hàng sử dụng chiến thuật này để chiếm sóng.

Dead internet theory là một trong các học thuyết lập luận rằng internet sẽ ngày càng tràn ngập hoạt động của bot và nội dung được sản xuất tự động bởi AI. Điều này sẽ gạt hoạt động của con người ra ngoài lề.

Điều này đã có tiền lệ và đã được giải quyết. Vào năm 2012, YouTube đã xoá tới 2 tỷ view của các sản phẩm âm nhạc được đăng tải bởi các hãng đĩa lớn như Sony hay Universal. Họ phát hiện ra rằng có sự xuất hiện của các dịch vụ lừa đảo giúp tăng khống độ nhận diện của sản phẩm đến từ các hãng này. Quyết định của YouTube đánh dấu bước ngoặt trong việc đếm số liệu traffic trên các nền tảng phát hành nội dung.

5. Cảnh báo nào cho người dùng ở Việt Nam?

Trong những ngày giới công nghệ toàn cầu sục sôi về những hiểm hoạ đến từ AI, người dùng Việt được chứng kiến cách hiểm hoạ trở thành thực tế. Giả mạo cuộc gọi video qua các nền tảng chat phổ biến nhằm chiếm đoạt tài sản là một trong những ứng dụng AI rõ rệt nhất.

Công nghệ deepfake là trọng tâm của cách thức lừa đảo mới này. Kết hợp giữa deep learning (học sâu) và fake (làm giả), AI có thể phân tích nét mặt, cử chỉ và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật.

httpsimgvietceteracomuploadsimages04may2023detectingdee1561708489031688237608jpg
Minh hoạ công nghệ deepfake | Nguồn: Genk

Nhưng công nghệ này vẫn còn những giới hạn như cử chỉ mắt không tự nhiên, khuôn mặt được tạo ra không cân đối, ánh sáng khá kỳ lạ, và màu da bất thường. Đây là các tiêu chí người dung cần xem xét khi nhận được cuộc gọi video, nhằm không bị lừa đảo.

Dù sao, cảnh báo của Geoffrey Hinton đã không còn chỉ nằm trong lời phát biểu mà đã trở thành thực tế. Dù AI còn vô vàn tiềm năng chưa được khám phá, thì những điểm hại của công nghệ này đã được tận dụng triệt để, ảnh hưởng đến tầng lớp bình dân trong xã hội.