ChatGPT o3-pro identifica uma citação de 1965 de I. J. Good escrita à mão em uma mistura de impressão e cursiva em uma nota rasgada em quatro tiras em ordem inversa girada 90° em direções alternadas:
… e novamente, com as mesmas tiras amassadas, achatadas à mão e dispostas de forma diferente:
Variações mais difíceis caracterizando oclusões por objetos domésticos, no entanto, não foram bem-sucedidas – em um caso, rendendo uma refutação irônica ao texto realmente escrito:
Note que o software forense do mundo real é muito mais poderoso do que isso e pode "destruir" documentos de várias páginas que passaram por trituradores de escritório típicos após uma cuidadosa digitalização. Isto é mais uma novidade—é interessante apenas porque não foi projetado para conseguir fazer isso.
Observe que o software forense do mundo real é muito mais poderoso do que isso e pode "destruir" documentos de várias páginas executados através de trituradores típicos de escritório após uma verificação cuidadosa. Isso é mais uma novidade – é interessante porque não foi projetado para fazer isso.
@virtualdigit @emollick Provavelmente não:
Riley Goodside
Riley Goodside7/07/2025
Observe que o software forense do mundo real é muito mais poderoso do que isso e pode "destruir" documentos de várias páginas executados através de trituradores típicos de escritório após uma verificação cuidadosa. Isso é mais uma novidade – é interessante porque não foi projetado para fazer isso.
Algumas respostas perguntaram até que ponto o modelo corrige erros ao texto conhecido da citação (o que implica que pode não generalizar tão bem para o texto novo). Um erro não intencional em minha nota sugere que isso está realmente acontecendo – o meu lê "sempre precisa", não "precisa nunca", como Good escreveu:
@ShaulGoo Não neste caso, mas dado o meu aviso específico aqui, ignorar pequenos erros é indiscutivelmente o comportamento certo. Veja esta resposta que acabei de adicionar ao tópico:
Riley Goodside
Riley Goodside7/07/2025
Algumas respostas perguntaram até que ponto o modelo corrige erros ao texto conhecido da citação (o que implica que pode não generalizar tão bem para o texto novo). Um erro não intencional em minha nota sugere que isso está realmente acontecendo – o meu lê "sempre precisa", não "precisa nunca", como Good escreveu:
(Embora, eu argumentaria para o meu prompt particular, o que implica que é conhecido por ser uma citação, não ecoar pequenos erros na entrada é um bom comportamento.)
@panoskalos Eu não tentei a mim mesmo, mas veja aqui:
kanha korgaonkar
kanha korgaonkar7/07/2025
O que é realmente interessante é que @GeminiApp também pode fazer a mesma coisa, mas precisa de um prompt ligeiramente ajustado @goodside Estou executando 2.5 Pro
@panoskalos @panoskalos Eu atualizei o tópico principal acima com mais resultados de Gêmeos.
253,8K