As alucinações da IA são apenas erros. O viés molda o que vemos, como é enquadrado e o que é enfatizado. É sutil, sistémico e impossível de eliminar em sistemas centralizados. Esse é o problema que a @Mira_Network está a resolver. A maior parte da IA hoje é controlada por um pequeno grupo de organizações centralizadas, principalmente nos EUA e na China. Mesmo com boas intenções, as suas perspetivas culturais e políticas definem como a IA se comporta. Isso está incorporado nos dados de treino, alinhamento e moderação de saídas. A solução da Mira: Usar incentivos criptoeconómicos para distribuir a verificação e tornar a responsabilidade da IA sem confiança. Em vez de confiar numa equipa para moderar as saídas, você conta com participantes diversos que apostam valor real para verificá-las. Se manipularem, perdem. Se se alinharem honestamente, são recompensados. Isso cria resultados neutros a partir das forças de mercado, não da autoridade. A estrutura da Mira utiliza múltiplos modelos de IA com diferentes perspetivas. Quando concordam, a saída reflete um amplo consenso. Quando discordam, expõe a divergência cultural ou ideológica, tornando o viés visível em vez de escondido. Esta abordagem irá: - Reduzir a polarização - Superficializar nuances - Promover a representação global - Permitir sistemas autónomos que se auto-verificam - Remover a necessidade de moderação centralizada O objetivo não é tornar a IA livre de valores (isso não é realista). É prevenir que um único conjunto de valores domine a informação global. O design criptoeconómico da Mira não é a solução final hoje, mas é uma das tentativas mais credíveis que vimos para construir uma infraestrutura de IA escalável e imparcial.
2,82K