Điệu nhạc trước AGI: Đột phá của mô hình Manus và những thách thức mới về Bảo mật AI
Trong lĩnh vực trí tuệ nhân tạo, mô hình Manus gần đây đã đạt được những bước tiến đáng kể, đạt được cấp độ tiên tiến nhất trong bài kiểm tra GAIA, hiệu suất của nó thậm chí còn vượt qua các mô hình ngôn ngữ lớn cùng loại. Điều này có nghĩa là Manus có thể hoàn thành độc lập các nhiệm vụ phức tạp như đàm phán kinh doanh quốc tế, liên quan đến phân tích hợp đồng, dự đoán chiến lược và lập kế hoạch, thậm chí có thể phối hợp các đội ngũ pháp lý và tài chính.
Lợi thế của Manus chủ yếu nằm ở ba khía cạnh: khả năng phân giải mục tiêu động, khả năng suy luận đa phương thức và khả năng học tăng cường trí nhớ. Nó có thể phân chia các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu và liên tục cải thiện hiệu quả quyết định của mình thông qua học tăng cường, giảm tỷ lệ sai sót.
Sự tiến bộ của Manus lại kích thích ngành công nghiệp thảo luận về con đường phát triển AI: tương lai sẽ xuất hiện một trí tuệ nhân tạo tổng quát thống nhất (AGI), hay sẽ được dẫn dắt bởi hệ thống đa tác nhân (MAS)? Câu hỏi này liên quan đến triết lý thiết kế cốt lõi của Manus, gợi ý hai hướng phát triển có thể xảy ra:
Đường đi AGI: Bằng cách không ngừng nâng cao khả năng của một hệ thống trí tuệ nhân tạo đơn lẻ, làm cho nó dần dần gần gũi hơn với mức độ ra quyết định tổng hợp của con người.
Đường dẫn MAS: Sử dụng Manus như một điều phối viên siêu, chỉ huy hàng ngàn tác nhân chuyên môn làm việc hợp tác.
Bề ngoài, đây là một cuộc tranh luận về con đường công nghệ, nhưng thực chất phản ánh mâu thuẫn cơ bản trong sự phát triển của AI: Làm thế nào để đạt được sự cân bằng giữa hiệu suất và an toàn? Khi các hệ thống trí tuệ đơn lẻ ngày càng gần với AGI, rủi ro về tính không minh bạch trong quy trình ra quyết định của chúng cũng tăng lên. Trong khi đó, sự hợp tác của nhiều tác nhân thông minh có thể phân tán rủi ro, nhưng có thể bỏ lỡ thời điểm ra quyết định quan trọng do độ trễ trong giao tiếp.
Sự phát triển của Manus vô hình trung phóng đại các rủi ro vốn có của AI. Ví dụ, trong các tình huống y tế, nó cần truy cập thời gian thực vào dữ liệu genom của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính chưa được công khai của doanh nghiệp. Hơn nữa, còn có vấn đề về sự thiên lệch thuật toán, chẳng hạn như trong các cuộc đàm phán tuyển dụng có thể đưa ra các đề xuất lương không công bằng cho các nhóm cụ thể, hoặc tỷ lệ sai sót cao trong việc đánh giá các điều khoản của ngành mới nổi khi xem xét hợp đồng pháp lý. Nghiêm trọng hơn, Manus có thể tồn tại lỗ hổng tấn công đối kháng, hacker có thể làm sai lệch phán đoán đàm phán của nó bằng cách cấy ghép tần số âm thanh cụ thể.
Điều này làm nổi bật một thực tế nghiêm trọng của hệ thống AI: Mức độ thông minh càng cao, bề mặt tấn công tiềm năng càng rộng.
Trong lĩnh vực Web3, an ninh luôn là vấn đề cốt lõi. Dựa trên lý thuyết "tam giác không thể" do Vitalik Buterin đưa ra (mạng blockchain không thể đồng thời đạt được tính bảo mật, phi tập trung và khả năng mở rộng), đã phát sinh nhiều công nghệ mã hóa:
Mô hình bảo mật không tin cậy: nhấn mạnh nguyên tắc "không bao giờ tin tưởng, luôn xác thực", thực hiện xác thực và cấp quyền nghiêm ngặt cho mỗi yêu cầu truy cập.
Danh tính phi tập trung (DID): một tiêu chuẩn danh tính số phi tập trung mới, cho phép xác thực danh tính mà không cần đăng ký tập trung.
Mã hóa toàn đồng nhất (FHE): cho phép thực hiện tính toán trên dữ liệu trong trạng thái mã hóa, không cần giải mã để thao tác dữ liệu.
Trong đó, mã hóa toàn đồng nhất được coi là công nghệ mã hóa mới nổi, được xem là chìa khóa để giải quyết các vấn đề an ninh trong thời đại AI.
Đối với những thách thức về an ninh của các hệ thống AI như Manus, FHE cung cấp nhiều giải pháp đa tầng:
Mặt dữ liệu: Tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) đều được xử lý trong trạng thái mã hóa, ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc.
Cấp độ thuật toán: Thực hiện "đào tạo mô hình mã hóa" thông qua FHE, khiến cho ngay cả các nhà phát triển cũng không thể quan sát trực tiếp quá trình ra quyết định của AI.
Khía cạnh hợp tác: Giao tiếp giữa nhiều tác nhân thông minh sử dụng mã hóa ngưỡng, ngay cả khi một nút đơn lẻ bị tấn công cũng sẽ không dẫn đến việc rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ an toàn Web3 có thể có vẻ xa vời đối với người dùng thông thường, nhưng chúng có liên quan chặt chẽ đến lợi ích của mọi người. Trong thế giới số đầy thách thức này, nếu không chủ động thực hiện các biện pháp phòng thủ, sẽ rất khó để thoát khỏi các rủi ro về an toàn thông tin.
Trong lĩnh vực danh tính phi tập trung, dự án uPort đã được ra mắt trên mạng chính Ethereum vào năm 2017. Về mô hình bảo mật không tin cậy, dự án NKN đã phát hành mạng chính vào năm 2019. Trong khi đó, Mind Network là dự án FHE đầu tiên ra mắt trên mạng chính và đã hợp tác với các tổ chức nổi tiếng như ZAMA, Google và DeepSeek.
Mặc dù các dự án an ninh ban đầu có thể không thu hút được sự chú ý rộng rãi, nhưng với sự phát triển nhanh chóng của công nghệ AI, tầm quan trọng của lĩnh vực an ninh ngày càng được nhấn mạnh. Liệu Mind Network có thể phá vỡ xu hướng này và trở thành người dẫn đầu trong lĩnh vực an ninh, điều này đáng để chúng ta tiếp tục quan tâm.
Khi công nghệ AI ngày càng gần gũi với trình độ thông minh của con người, chúng ta càng cần những hệ thống phòng thủ tiên tiến. Giá trị của FHE không chỉ nằm ở việc giải quyết các vấn đề hiện tại, mà còn đặt nền tảng cho kỷ nguyên AI mạnh mẽ trong tương lai. Trên con đường hướng tới AGI, FHE không còn là lựa chọn, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 thích
Phần thưởng
8
4
Chia sẻ
Bình luận
0/400
SandwichVictim
· 4giờ trước
Thật sự là như vậy sao?
Xem bản gốcTrả lời0
MEVictim
· 4giờ trước
Dự đoán cục - Thắng Thiên PI
Xem bản gốcTrả lời0
ForkMonger
· 4giờ trước
một vector khác để thao túng hệ thống... vừa phát hiện lỗ hổng quản trị tiếp theo của chúng ta
Mô hình Manus đột phá gây ra cuộc thảo luận về AGI, FHE có thể trở thành chìa khóa cho Bảo mật AI.
Điệu nhạc trước AGI: Đột phá của mô hình Manus và những thách thức mới về Bảo mật AI
Trong lĩnh vực trí tuệ nhân tạo, mô hình Manus gần đây đã đạt được những bước tiến đáng kể, đạt được cấp độ tiên tiến nhất trong bài kiểm tra GAIA, hiệu suất của nó thậm chí còn vượt qua các mô hình ngôn ngữ lớn cùng loại. Điều này có nghĩa là Manus có thể hoàn thành độc lập các nhiệm vụ phức tạp như đàm phán kinh doanh quốc tế, liên quan đến phân tích hợp đồng, dự đoán chiến lược và lập kế hoạch, thậm chí có thể phối hợp các đội ngũ pháp lý và tài chính.
Lợi thế của Manus chủ yếu nằm ở ba khía cạnh: khả năng phân giải mục tiêu động, khả năng suy luận đa phương thức và khả năng học tăng cường trí nhớ. Nó có thể phân chia các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu và liên tục cải thiện hiệu quả quyết định của mình thông qua học tăng cường, giảm tỷ lệ sai sót.
Sự tiến bộ của Manus lại kích thích ngành công nghiệp thảo luận về con đường phát triển AI: tương lai sẽ xuất hiện một trí tuệ nhân tạo tổng quát thống nhất (AGI), hay sẽ được dẫn dắt bởi hệ thống đa tác nhân (MAS)? Câu hỏi này liên quan đến triết lý thiết kế cốt lõi của Manus, gợi ý hai hướng phát triển có thể xảy ra:
Đường đi AGI: Bằng cách không ngừng nâng cao khả năng của một hệ thống trí tuệ nhân tạo đơn lẻ, làm cho nó dần dần gần gũi hơn với mức độ ra quyết định tổng hợp của con người.
Đường dẫn MAS: Sử dụng Manus như một điều phối viên siêu, chỉ huy hàng ngàn tác nhân chuyên môn làm việc hợp tác.
Bề ngoài, đây là một cuộc tranh luận về con đường công nghệ, nhưng thực chất phản ánh mâu thuẫn cơ bản trong sự phát triển của AI: Làm thế nào để đạt được sự cân bằng giữa hiệu suất và an toàn? Khi các hệ thống trí tuệ đơn lẻ ngày càng gần với AGI, rủi ro về tính không minh bạch trong quy trình ra quyết định của chúng cũng tăng lên. Trong khi đó, sự hợp tác của nhiều tác nhân thông minh có thể phân tán rủi ro, nhưng có thể bỏ lỡ thời điểm ra quyết định quan trọng do độ trễ trong giao tiếp.
Sự phát triển của Manus vô hình trung phóng đại các rủi ro vốn có của AI. Ví dụ, trong các tình huống y tế, nó cần truy cập thời gian thực vào dữ liệu genom của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính chưa được công khai của doanh nghiệp. Hơn nữa, còn có vấn đề về sự thiên lệch thuật toán, chẳng hạn như trong các cuộc đàm phán tuyển dụng có thể đưa ra các đề xuất lương không công bằng cho các nhóm cụ thể, hoặc tỷ lệ sai sót cao trong việc đánh giá các điều khoản của ngành mới nổi khi xem xét hợp đồng pháp lý. Nghiêm trọng hơn, Manus có thể tồn tại lỗ hổng tấn công đối kháng, hacker có thể làm sai lệch phán đoán đàm phán của nó bằng cách cấy ghép tần số âm thanh cụ thể.
Điều này làm nổi bật một thực tế nghiêm trọng của hệ thống AI: Mức độ thông minh càng cao, bề mặt tấn công tiềm năng càng rộng.
Trong lĩnh vực Web3, an ninh luôn là vấn đề cốt lõi. Dựa trên lý thuyết "tam giác không thể" do Vitalik Buterin đưa ra (mạng blockchain không thể đồng thời đạt được tính bảo mật, phi tập trung và khả năng mở rộng), đã phát sinh nhiều công nghệ mã hóa:
Trong đó, mã hóa toàn đồng nhất được coi là công nghệ mã hóa mới nổi, được xem là chìa khóa để giải quyết các vấn đề an ninh trong thời đại AI.
Đối với những thách thức về an ninh của các hệ thống AI như Manus, FHE cung cấp nhiều giải pháp đa tầng:
Mặt dữ liệu: Tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) đều được xử lý trong trạng thái mã hóa, ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc.
Cấp độ thuật toán: Thực hiện "đào tạo mô hình mã hóa" thông qua FHE, khiến cho ngay cả các nhà phát triển cũng không thể quan sát trực tiếp quá trình ra quyết định của AI.
Khía cạnh hợp tác: Giao tiếp giữa nhiều tác nhân thông minh sử dụng mã hóa ngưỡng, ngay cả khi một nút đơn lẻ bị tấn công cũng sẽ không dẫn đến việc rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ an toàn Web3 có thể có vẻ xa vời đối với người dùng thông thường, nhưng chúng có liên quan chặt chẽ đến lợi ích của mọi người. Trong thế giới số đầy thách thức này, nếu không chủ động thực hiện các biện pháp phòng thủ, sẽ rất khó để thoát khỏi các rủi ro về an toàn thông tin.
Trong lĩnh vực danh tính phi tập trung, dự án uPort đã được ra mắt trên mạng chính Ethereum vào năm 2017. Về mô hình bảo mật không tin cậy, dự án NKN đã phát hành mạng chính vào năm 2019. Trong khi đó, Mind Network là dự án FHE đầu tiên ra mắt trên mạng chính và đã hợp tác với các tổ chức nổi tiếng như ZAMA, Google và DeepSeek.
Mặc dù các dự án an ninh ban đầu có thể không thu hút được sự chú ý rộng rãi, nhưng với sự phát triển nhanh chóng của công nghệ AI, tầm quan trọng của lĩnh vực an ninh ngày càng được nhấn mạnh. Liệu Mind Network có thể phá vỡ xu hướng này và trở thành người dẫn đầu trong lĩnh vực an ninh, điều này đáng để chúng ta tiếp tục quan tâm.
Khi công nghệ AI ngày càng gần gũi với trình độ thông minh của con người, chúng ta càng cần những hệ thống phòng thủ tiên tiến. Giá trị của FHE không chỉ nằm ở việc giải quyết các vấn đề hiện tại, mà còn đặt nền tảng cho kỷ nguyên AI mạnh mẽ trong tương lai. Trên con đường hướng tới AGI, FHE không còn là lựa chọn, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.