Camada de Confiança em IA: Como a rede Mira resolve problemas de viés e alucinações em IA
Recentemente, a rede pública de testes da Mira foi oficialmente lançada. Este projeto visa construir uma camada de confiança para a IA, resolvendo os problemas de preconceito e "alucinações" presentes nos sistemas de IA. Então, por que a IA precisa ser confiável? Como a Mira está resolvendo esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais nas suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA é frequentemente ignorado. O que se chama de "alucinações" da IA, simplificando, é que a IA às vezes "inventa" e fala bobagens de maneira séria. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que parecem razoáveis, mas que na realidade não têm base.
A "ilusão" ou preconceito que a IA apresenta está relacionado a algumas das atuais trajetórias tecnológicas da IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdos fictícios, o que também afeta a saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados levam quase inevitavelmente a que a IA produza "alucinações". Se essa saída enviesada ou alucinatória se limitar a conhecimentos gerais ou conteúdos de entretenimento, pode não ter consequências diretas a curto prazo. Mas se ocorrer em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter um impacto significativo. Portanto, resolver o problema das alucinações e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira tenta resolver este problema construindo uma camada de confiança para a IA, aumentando a fiabilidade da IA. Então, como é que a Mira reduz os preconceitos e as ilusões da IA e, em última instância, alcança uma IA confiável?
A filosofia central da Mira é validar a saída da IA através do consenso de múltiplos modelos de IA. É essencialmente uma rede de validação que garante a fiabilidade da saída da IA através da validação de consenso descentralizado. Este método combina as vantagens da validação de consenso descentralizado, que é uma especialidade da área de criptografia, e da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modelo de validação coletivo.
No que diz respeito à arquitetura de validação, o protocolo Mira suporta a conversão de conteúdo complexo em declarações de validação independentes. Os operadores de nós participam na validação dessas declarações, garantindo comportamentos honestos através de incentivos económicos criptográficos e mecanismos de penalização. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a fiabilidade dos resultados de validação.
A arquitetura de rede da Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em declarações verificáveis e, em seguida, distribui para os nós para validação. Os nós determinam a validade das declarações e agregam os resultados para alcançar um consenso. Para proteger a privacidade do cliente, as declarações são distribuídas de forma fragmentada e aleatória para diferentes nós.
Os operadores de nós obtêm lucros executando modelos de validadores, processando declarações e submetendo resultados de validação. Esses lucros vêm do valor criado para os clientes, ou seja, da redução da taxa de erro da IA em áreas críticas. Para evitar que os nós respondam aleatoriamente, nós que se desviam continuamente do consenso serão punidos.
De um modo geral, a Mira oferece uma nova abordagem de solução, construindo uma rede de validação de consenso descentralizada, trazendo maior confiabilidade aos serviços de IA dos clientes. Ela tenta se tornar a camada de confiança da IA, impulsionando o desenvolvimento profundo de aplicações de IA.
Atualmente, a Mira já estabeleceu parcerias com várias estruturas de agentes de IA. Os usuários podem participar da rede de testes pública através do Klok (uma aplicação de chat LLM baseada na Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
6
Compartilhar
Comentário
0/400
DuckFluff
· 8h atrás
Como dizer alucinação? É apenas a IA falando bobagens.
Ver originalResponder0
Lonely_Validator
· 8h atrás
Outra vez a fazer as pessoas de parvas, não é?
Ver originalResponder0
SeeYouInFourYears
· 8h atrás
Já vi muitas invenções do ai.
Ver originalResponder0
OnchainUndercover
· 8h atrás
Pergunta: todos os grandes modelos de linguagem estão a contar histórias.
Lançamento da fase de testes públicos da rede Mira: A camada de confiança em IA pode resolver o problema do viés de alucinação?
Camada de Confiança em IA: Como a rede Mira resolve problemas de viés e alucinações em IA
Recentemente, a rede pública de testes da Mira foi oficialmente lançada. Este projeto visa construir uma camada de confiança para a IA, resolvendo os problemas de preconceito e "alucinações" presentes nos sistemas de IA. Então, por que a IA precisa ser confiável? Como a Mira está resolvendo esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais nas suas poderosas capacidades. No entanto, o problema das "alucinações" ou preconceitos da IA é frequentemente ignorado. O que se chama de "alucinações" da IA, simplificando, é que a IA às vezes "inventa" e fala bobagens de maneira séria. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que parecem razoáveis, mas que na realidade não têm base.
A "ilusão" ou preconceito que a IA apresenta está relacionado a algumas das atuais trajetórias tecnológicas da IA. A IA generativa alcança coerência e razoabilidade ao prever o conteúdo "mais provável", mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdos fictícios, o que também afeta a saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana e não os fatos em si.
O atual mecanismo de geração de probabilidade e o modelo orientado a dados levam quase inevitavelmente a que a IA produza "alucinações". Se essa saída enviesada ou alucinatória se limitar a conhecimentos gerais ou conteúdos de entretenimento, pode não ter consequências diretas a curto prazo. Mas se ocorrer em áreas altamente rigorosas como medicina, direito, aviação e finanças, pode ter um impacto significativo. Portanto, resolver o problema das alucinações e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.
O projeto Mira tenta resolver este problema construindo uma camada de confiança para a IA, aumentando a fiabilidade da IA. Então, como é que a Mira reduz os preconceitos e as ilusões da IA e, em última instância, alcança uma IA confiável?
A filosofia central da Mira é validar a saída da IA através do consenso de múltiplos modelos de IA. É essencialmente uma rede de validação que garante a fiabilidade da saída da IA através da validação de consenso descentralizado. Este método combina as vantagens da validação de consenso descentralizado, que é uma especialidade da área de criptografia, e da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modelo de validação coletivo.
No que diz respeito à arquitetura de validação, o protocolo Mira suporta a conversão de conteúdo complexo em declarações de validação independentes. Os operadores de nós participam na validação dessas declarações, garantindo comportamentos honestos através de incentivos económicos criptográficos e mecanismos de penalização. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a fiabilidade dos resultados de validação.
A arquitetura de rede da Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. Primeiro, o sistema decompõe o conteúdo candidato enviado pelo cliente em declarações verificáveis e, em seguida, distribui para os nós para validação. Os nós determinam a validade das declarações e agregam os resultados para alcançar um consenso. Para proteger a privacidade do cliente, as declarações são distribuídas de forma fragmentada e aleatória para diferentes nós.
Os operadores de nós obtêm lucros executando modelos de validadores, processando declarações e submetendo resultados de validação. Esses lucros vêm do valor criado para os clientes, ou seja, da redução da taxa de erro da IA em áreas críticas. Para evitar que os nós respondam aleatoriamente, nós que se desviam continuamente do consenso serão punidos.
De um modo geral, a Mira oferece uma nova abordagem de solução, construindo uma rede de validação de consenso descentralizada, trazendo maior confiabilidade aos serviços de IA dos clientes. Ela tenta se tornar a camada de confiança da IA, impulsionando o desenvolvimento profundo de aplicações de IA.
Atualmente, a Mira já estabeleceu parcerias com várias estruturas de agentes de IA. Os usuários podem participar da rede de testes pública através do Klok (uma aplicação de chat LLM baseada na Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira.