A quebra do modelo Manus provoca discussões sobre AGI. A FHE pode ser a chave para a segurança da IA.

O Prelúdio da AGI: A Quebra do Modelo Manus e os Novos Desafios da Segurança da IA

No campo da inteligência artificial, o modelo Manus alcançou recentemente um grande avanço, atingindo níveis de ponta nos testes de referência GAIA, com um desempenho que até supera grandes modelos de linguagem da mesma categoria. Isso significa que o Manus é capaz de realizar de forma independente tarefas complexas como negociações comerciais internacionais, envolvendo a análise de contratos, previsões estratégicas e elaboração de propostas, sendo capaz até de coordenar equipes jurídicas e financeiras.

As vantagens do Manus manifestam-se principalmente em três aspectos: capacidade de decomposição dinâmica de objetivos, capacidade de raciocínio multimodal e capacidade de aprendizado reforçado com memória. Ele consegue decompor grandes tarefas em centenas de subtarefas executáveis, ao mesmo tempo em que processa vários tipos de dados, e melhora continuamente sua eficiência de decisão e reduz a taxa de erro por meio de aprendizado reforçado.

Manus traz a luz do amanhecer do AGI, a Segurança da IA também merece reflexão

O avanço da Manus gerou novamente discussões na indústria sobre o caminho de desenvolvimento da IA: o futuro terá um Inteligência Artificial Geral (AGI) unificada, ou será dominado por sistemas multiagentes (MAS)? Esta questão envolve a filosofia central de design da Manus, sugerindo duas possíveis direções de desenvolvimento:

  1. Caminho AGI: Através da melhoria contínua das capacidades de um único sistema inteligente, aproximando-o gradualmente do nível de tomada de decisão abrangente dos humanos.

  2. Caminho MAS: usar o Manus como um super coordenador, dirigindo centenas de agentes especializados a trabalharem em colaboração.

À primeira vista, trata-se de uma discussão sobre caminhos tecnológicos, mas reflete, na verdade, uma contradição fundamental no desenvolvimento da IA: como equilibrar eficiência e segurança? À medida que sistemas inteligentes individuais se aproximam cada vez mais da AGI, o risco de falta de transparência em seus processos de decisão também aumenta. Embora a colaboração entre múltiplos agentes possa dispersar riscos, pode também perder oportunidades críticas de decisão devido a atrasos na comunicação.

O desenvolvimento do Manus amplifica, de forma invisível, os riscos inerentes à IA. Por exemplo, em cenários médicos, ele precisa de acesso em tempo real aos dados genômicos dos pacientes; em negociações financeiras, pode envolver informações financeiras não divulgadas de empresas. Além disso, há o problema do viés algorítmico, como em negociações de recrutamento, que podem oferecer sugestões salariais injustas para determinados grupos, ou em revisões de contratos legais, onde a taxa de erro em relação a cláusulas de setores emergentes é alta. Mais grave ainda, o Manus pode ter vulnerabilidades a ataques adversariais, onde hackers podem enganar seu julgamento de negociação através da inserção de frequências de áudio específicas.

Isto destaca uma dura realidade dos sistemas de IA: quanto maior o nível de inteligência, mais ampla é a superfície de ataque potencial.

No domínio do Web3, a segurança tem sido um tema central. Com base na teoria do "triângulo impossível" proposta por Vitalik Buterin (as redes de blockchain não conseguem realizar segurança, descentralização e escalabilidade simultaneamente), diversas tecnologias criptográficas surgiram:

  • Modelo de segurança de confiança zero: enfatiza o princípio de "nunca confiar, sempre verificar", realizando uma verificação de identidade e autorização rigorosa para cada pedido de acesso.
  • Identidade Descentralizada (DID): um novo padrão de identidade digital descentralizada que permite a verificação de identidade sem registo centralizado.
  • Criptografia homomórfica completa (FHE): permite realizar cálculos em dados no estado criptografado, sem necessidade de descriptografar para operar os dados.

Entre eles, a criptografia totalmente homomórfica, como uma das tecnologias de criptografia mais recentes, é considerada a chave para resolver os problemas de segurança na era da IA.

Para os desafios de segurança dos sistemas de IA como o Manus, o FHE oferece soluções em várias camadas:

  1. Nível de dados: todas as informações inseridas pelo usuário (incluindo características biométricas, voz, etc.) são processadas em estado criptografado, nem mesmo o sistema de IA consegue descriptografar os dados originais.

  2. Nível de algoritmo: implementar "treinamento de modelo criptografado" através de FHE, de modo que mesmo os desenvolvedores não possam observar diretamente o processo de decisão da IA.

  3. Camada de colaboração: A comunicação entre múltiplos agentes utiliza criptografia de limiar, de modo que mesmo que um único nó seja comprometido, não haverá vazamento de dados globais.

Embora a tecnologia de segurança Web3 possa parecer distante para o usuário comum, ela está intimamente relacionada aos interesses de todos. Neste mundo digital repleto de desafios, é difícil escapar dos riscos de segurança da informação sem a adoção de medidas defensivas.

No campo da identidade descentralizada, o projeto uPort foi lançado na mainnet do Ethereum em 2017. Em termos de modelo de segurança de confiança zero, o projeto NKN lançou a mainnet em 2019. O Mind Network, por sua vez, é o primeiro projeto de FHE a ser lançado na mainnet, tendo colaborado com instituições conhecidas como ZAMA, Google e DeepSeek.

Apesar de os projetos de segurança iniciais não terem conseguido atrair ampla atenção, a importância da área da segurança está a aumentar à medida que a tecnologia da IA avança rapidamente. Vale a pena acompanharmos se a Mind Network conseguirá quebrar esta tendência e tornar-se uma líder na área da segurança.

À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, precisamos de sistemas de defesa avançados. O valor do FHE não está apenas em resolver problemas atuais, mas também em estabelecer uma base para a era da forte IA que se aproxima. No caminho para o AGI, o FHE não é mais uma opção, mas sim uma condição necessária para garantir o desenvolvimento seguro da IA.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartilhar
Comentário
0/400
SandwichVictimvip
· 5h atrás
Isto é mesmo verdade?
Ver originalResponder0
MEVictimvip
· 5h atrás
Previsão - PI
Ver originalResponder0
ForkMongervip
· 5h atrás
outro vetor para manipulação do sistema... acabamos de encontrar a nossa próxima exploração de governança
Ver originalResponder0
ApyWhisperervip
· 5h atrás
Mais uma onda de IA. Calma, calma.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)