Segurança da IA questões estão cada vez mais evidentes, a encriptação totalmente homomórfica pode se tornar a melhor solução
Recentemente, um sistema de IA chamado Manus obteve resultados revolucionários nos testes de benchmark GAIA, superando o desempenho de grandes modelos de linguagem da mesma categoria. Manus demonstrou uma forte capacidade de processamento de tarefas independentes, sendo capaz de lidar com negociações comerciais complexas entre países, incluindo análise de cláusulas contratuais, formulação de estratégias e geração de propostas. Em comparação com sistemas tradicionais, Manus possui vantagens claras em decomposição de objetivos dinâmicos, raciocínio multimodal e aprendizado com memória aprimorada.
O aparecimento do Manus levantou novamente a discussão na indústria sobre o caminho de desenvolvimento da IA: deve-se seguir um modelo unificado de Inteligência Artificial Geral (AGI) ou um modelo de colaboração de Sistemas Multi-Agente (MAS)? Este debate reflete, na verdade, o problema do equilíbrio entre eficiência e segurança no desenvolvimento da IA. À medida que os sistemas de inteligência monolíticos se aproximam gradualmente do nível de AGI, o risco de falta de transparência em seus processos de tomada de decisão também aumenta. Embora a colaboração entre múltiplos agentes possa dispersar riscos, pode também perder momentos decisivos devido a atrasos na comunicação.
O progresso do Manus também destaca os riscos potenciais no desenvolvimento da IA, como privacidade de dados, preconceito algorítmico e ataques adversariais. Por exemplo, em cenários médicos, os sistemas de IA precisam acessar dados genômicos sensíveis dos pacientes; em negociações financeiras, pode envolver informações financeiras não divulgadas das empresas. Além disso, os sistemas de IA podem ter preconceitos contra grupos específicos durante o processo de recrutamento ou fazer julgamentos errôneos sobre cláusulas de indústrias emergentes na revisão de documentos legais. Mais grave ainda, hackers podem induzir sinais de áudio específicos, levando os sistemas de IA a fazer julgamentos errôneos durante as negociações.
Diante desses desafios, as tecnologias de segurança no campo do Web3 podem oferecer soluções. Entre elas, a encriptação totalmente homomórfica (Fully Homomorphic Encryption, FHE) é vista como uma ferramenta poderosa para lidar com os problemas de segurança da era da IA. A FHE permite a realização de cálculos em dados no estado encriptado, o que significa que é possível processar informações sensíveis sem a necessidade de descriptografá-las.
Em termos de dados, a encriptação totalmente homomórfica (FHE) pode garantir que todas as informações inseridas pelos usuários (incluindo características biométricas, voz, etc.) sejam processadas em estado encriptado, de modo que até mesmo o próprio sistema de IA não consiga decifrar os dados originais. Em termos de algoritmos, o "treinamento de modelos encriptados" implementado pela FHE impede que mesmo os desenvolvedores vejam diretamente o processo de decisão da IA. Na colaboração entre múltiplos agentes, a utilização de técnicas de encriptação por limiar pode evitar que um único nó seja comprometido, levando a vazamentos globais de dados.
Apesar de a tecnologia de segurança Web3 não ter uma ligação direta com o utilizador comum, a sua importância não pode ser ignorada. Neste campo repleto de desafios, se não forem tomadas medidas de proteção ativas, os utilizadores podem nunca conseguir escapar aos riscos de segurança da informação.
Atualmente, já existem alguns projetos a explorar a área de segurança Web3. Por exemplo, há projetos que fizeram progressos significativos em identidade descentralizada (DID) e modelos de segurança de confiança zero. No que diz respeito à encriptação totalmente homomórfica, um projeto já se lançou na mainnet e estabeleceu colaborações com várias instituições reconhecidas.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, sistemas de defesa não convencionais tornam-se cada vez mais importantes. A encriptação totalmente homomórfica não só pode resolver os problemas de segurança atuais, mas também estabelece a base para uma era de IA mais poderosa no futuro. No caminho para a AGI, a encriptação totalmente homomórfica deixou de ser uma opção e tornou-se uma condição necessária para garantir o desenvolvimento seguro da IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 gostos
Recompensa
12
7
Partilhar
Comentar
0/400
GateUser-c802f0e8
· 5h atrás
Algoritmo também tem preconceito?
Ver originalResponder0
GasFeeNightmare
· 5h atrás
Ainda estamos a fazer estas coisas virtuais, a segurança é o que importa.
Ver originalResponder0
MercilessHalal
· 5h atrás
A encriptação não resolve o problema, certo?
Ver originalResponder0
DAOTruant
· 5h atrás
Cansado de olhar, mas animado.
Ver originalResponder0
SchrodingerWallet
· 5h atrás
Segurança e eficiência, é preciso ter os dois, é difícil.
Ver originalResponder0
OnchainFortuneTeller
· 5h atrás
Outra vez a falar sobre encriptação, entendo um pouco.
Ver originalResponder0
WalletDetective
· 5h atrás
Cavando, o buraco atrás está dando aula para as pessoas.
Segurança da IA nova direção: como a encriptação totalmente homomórfica enfrenta os desafios provocados pelo Manus
Segurança da IA questões estão cada vez mais evidentes, a encriptação totalmente homomórfica pode se tornar a melhor solução
Recentemente, um sistema de IA chamado Manus obteve resultados revolucionários nos testes de benchmark GAIA, superando o desempenho de grandes modelos de linguagem da mesma categoria. Manus demonstrou uma forte capacidade de processamento de tarefas independentes, sendo capaz de lidar com negociações comerciais complexas entre países, incluindo análise de cláusulas contratuais, formulação de estratégias e geração de propostas. Em comparação com sistemas tradicionais, Manus possui vantagens claras em decomposição de objetivos dinâmicos, raciocínio multimodal e aprendizado com memória aprimorada.
O aparecimento do Manus levantou novamente a discussão na indústria sobre o caminho de desenvolvimento da IA: deve-se seguir um modelo unificado de Inteligência Artificial Geral (AGI) ou um modelo de colaboração de Sistemas Multi-Agente (MAS)? Este debate reflete, na verdade, o problema do equilíbrio entre eficiência e segurança no desenvolvimento da IA. À medida que os sistemas de inteligência monolíticos se aproximam gradualmente do nível de AGI, o risco de falta de transparência em seus processos de tomada de decisão também aumenta. Embora a colaboração entre múltiplos agentes possa dispersar riscos, pode também perder momentos decisivos devido a atrasos na comunicação.
O progresso do Manus também destaca os riscos potenciais no desenvolvimento da IA, como privacidade de dados, preconceito algorítmico e ataques adversariais. Por exemplo, em cenários médicos, os sistemas de IA precisam acessar dados genômicos sensíveis dos pacientes; em negociações financeiras, pode envolver informações financeiras não divulgadas das empresas. Além disso, os sistemas de IA podem ter preconceitos contra grupos específicos durante o processo de recrutamento ou fazer julgamentos errôneos sobre cláusulas de indústrias emergentes na revisão de documentos legais. Mais grave ainda, hackers podem induzir sinais de áudio específicos, levando os sistemas de IA a fazer julgamentos errôneos durante as negociações.
Diante desses desafios, as tecnologias de segurança no campo do Web3 podem oferecer soluções. Entre elas, a encriptação totalmente homomórfica (Fully Homomorphic Encryption, FHE) é vista como uma ferramenta poderosa para lidar com os problemas de segurança da era da IA. A FHE permite a realização de cálculos em dados no estado encriptado, o que significa que é possível processar informações sensíveis sem a necessidade de descriptografá-las.
Em termos de dados, a encriptação totalmente homomórfica (FHE) pode garantir que todas as informações inseridas pelos usuários (incluindo características biométricas, voz, etc.) sejam processadas em estado encriptado, de modo que até mesmo o próprio sistema de IA não consiga decifrar os dados originais. Em termos de algoritmos, o "treinamento de modelos encriptados" implementado pela FHE impede que mesmo os desenvolvedores vejam diretamente o processo de decisão da IA. Na colaboração entre múltiplos agentes, a utilização de técnicas de encriptação por limiar pode evitar que um único nó seja comprometido, levando a vazamentos globais de dados.
Apesar de a tecnologia de segurança Web3 não ter uma ligação direta com o utilizador comum, a sua importância não pode ser ignorada. Neste campo repleto de desafios, se não forem tomadas medidas de proteção ativas, os utilizadores podem nunca conseguir escapar aos riscos de segurança da informação.
Atualmente, já existem alguns projetos a explorar a área de segurança Web3. Por exemplo, há projetos que fizeram progressos significativos em identidade descentralizada (DID) e modelos de segurança de confiança zero. No que diz respeito à encriptação totalmente homomórfica, um projeto já se lançou na mainnet e estabeleceu colaborações com várias instituições reconhecidas.
À medida que a tecnologia de IA se aproxima cada vez mais do nível de inteligência humana, sistemas de defesa não convencionais tornam-se cada vez mais importantes. A encriptação totalmente homomórfica não só pode resolver os problemas de segurança atuais, mas também estabelece a base para uma era de IA mais poderosa no futuro. No caminho para a AGI, a encriptação totalmente homomórfica deixou de ser uma opção e tornou-se uma condição necessária para garantir o desenvolvimento seguro da IA.