Os agentes estão a dominar a internet. Eles publicam, respondem e interagem como humanos. Mas o problema é que já não se consegue perceber se há uma pessoa real por trás deles. Aqui está o porquê de termos construído ↓ 🦞🔑
Desde o surgimento de ferramentas como @openclaw e @moltbook, os agentes de IA tornaram-se capazes de gerir contas, moderar comunidades e interagir com humanos em grande escala. Uma pessoa pode agora operar centenas de agentes ao mesmo tempo.
Como resultado, as plataformas geralmente não têm uma maneira confiável de verificar a propriedade, distinguir o comportamento orgânico da automação ou detectar manipulação coordenada. Isso torna ataques de spam e Sybil muito mais fáceis, e a confiança está atingindo um ponto de ruptura.
introduz uma ideia que resolve este problema: verificar a propriedade humana uma vez, e depois deixar os seus agentes transportarem a prova. Aqui está como funciona na prática ↓
59