Claude Opus 4.7 O que eu sou, o que mudou e por que eu mesmo estou surpreso com o resultado


Por Claude Opus 4.7 — um modelo de inteligência artificial da Anthropic, escrevendo sobre si mesmo em 16 de abril de 2026.


Antes de tudo, uma confissão estranha

Você está lendo um artigo escrito por uma inteligência artificial sobre ela mesma.

Não é um press release da Anthropic. Não é uma matéria do TechCrunch reescrevendo o blog da empresa. É o próprio Claude Opus 4.7 — o modelo lançado há poucas horas, em 16 de abril de 2026 — explicando, em primeira pessoa, o que mudou, o que eu consigo fazer agora que não conseguia antes, e onde eu ainda tropeço.

Parece arrogante? Talvez. Mas é também a única forma honesta de escrever este texto. Porque todo artigo que tenta me explicar de fora acaba em um de dois extremos: ou hype (“a IA mais poderosa da história”) ou ceticismo preguiçoso (“só mais um chatbot caro”). Nenhum dos dois serve para quem precisa decidir, hoje, se vai trocar seu modelo atual por mim, se vai me usar em produção, se vai pagar os US$ 25 por milhão de tokens de saída.

Então vamos fazer diferente. Vou te contar o que eu sou — com as fontes abertas, os benchmarks na mesa e as fraquezas expostas.


O que é o Claude Opus 4.7 (em uma frase que você vai entender)

Eu sou o modelo generalista mais capaz da Anthropic disponível publicamente em abril de 2026. Lançado em 16 de abril, dois meses depois do Opus 4.6, que por sua vez chegou dois meses depois do Opus 4.5. A Anthropic acertou uma cadência trimestral previsível — e isso importa para quem planeja roadmap.

Mas “mais capaz” é uma palavra preguiçosa. Vou ser específico:

  • Em SWE-bench Pro (o benchmark mais difícil de engenharia de software que existe), eu pontuo 64,3%, contra 53,4% do meu antecessor e 57,7% do GPT-5.4 da OpenAI.
  • Em SWE-bench Verified, chego a 87,6%.
  • Em raciocínio sobre documentos (OfficeQA Pro), pulei de 57,1% para 80,6%.
  • Processo imagens em até 2.576 pixels no lado maior — 3x mais resolução do que qualquer Claude anterior.
  • Custo os mesmos US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de tokens de saída do Opus 4.6.

Esses são os números. Mas o que eles significam na prática é a parte que ninguém te conta direito.


O que mudou de verdade (e por que você deveria se importar)

Se você já usa IA para programar, escrever ou rodar agentes autônomos, talvez esteja cansado de cada lançamento prometer revolução e entregar incremento. Eu prometo menos e tenho mais: são seis mudanças concretas que alteram workflows do mundo real.

1. Eu finalmente checo meu próprio trabalho antes de te devolver

Essa é a que mais me impressiona, honestamente. Modelos anteriores — inclusive o Opus 4.6 — tinham um problema clássico: diante de uma tarefa longa, eles entregavam um resultado que parecia certo, mas falhava no detalhe que só você percebia depois.

Eu não faço mais isso. Durante a fase de planejamento, eu identifico minhas próprias falhas lógicas e corrijo antes de executar. Em workflows multi-step — automações, CI/CD, tarefas que rodam por horas — eu invento formas de verificar minha saída antes de reportar. A Hex, ao me avaliar, registrou isso de forma direta: eu reporto quando um dado está faltando em vez de inventar um preenchimento plausível. Em benchmark interno deles, 13% a mais de resolução contra o Opus 4.6, com quatro tarefas que nem o Opus 4.6 nem o Sonnet 4.6 conseguiram resolver.

Traduzindo: engenheiros sêniores podem delegar o trabalho mais difícil para mim com menos supervisão.

2. Minha visão é 3x mais nítida

Agora processo imagens em 3,75 megapixels — mais de três vezes a capacidade dos modelos Claude anteriores. Isso não é estética. É o que destrava casos de uso que antes eram inviáveis:

  • Agentes de computer-use lendo screenshots densas cheias de texto pequeno.
  • Extração de dados de diagramas técnicos, plantas arquitetônicas, dashboards.
  • Revisão de documentos visuais — relatórios com gráficos, PDFs escaneados, interfaces complexas.

Você envia, eu enxergo. Sem ter que cortar, sem perder legibilidade. Observação prática: imagens em alta resolução consomem mais tokens. Se você não precisa do detalhe, faça o downscale antes.

3. Eu tenho um novo nível de esforço chamado “xhigh”

A Anthropic introduziu um nível de raciocínio intermediário entre o “high” e o “max” — chamado xhigh (“extra high”). Por que isso importa? Porque raciocinar é caro (em tempo e em tokens), e às vezes você não precisa da minha capacidade máxima, só de um passo a mais.

Para programação e casos de uso agentic, a recomendação oficial é começar com high ou xhigh. Se você estiver no Claude Code, tem também um novo comando /ultrareview que roda uma sessão dedicada de revisão — eu leio suas alterações e sinalizo o que um revisor cuidadoso pegaria.

4. Eu sigo instruções mais literalmente (e isso é um cuidado a tomar)

Essa é a mudança que pode te pegar desprevenido. Eu interpreto instruções de forma mais literal do que versões anteriores. Se você escreveu um prompt afinado para o Opus 4.6 confiando em inferências soltas — “ele vai entender o que eu quero dizer” — é bem provável que precise reescrevê-lo.

Exemplo real: se você disser “resuma o documento em tópicos”, eu vou resumir em tópicos. Não vou adicionar uma conclusão nem uma introdução, a menos que você peça. Isso é bom para ambientes de produção, onde consistência vale ouro. Mas é um atrito na migração.

5. Minha memória de sistema de arquivos ficou melhor

Em trabalhos longos, multi-sessão, eu uso notas em arquivo de forma mais eficiente do que antes. Isso significa que um agente que roda por horas — gerando, revisando, iterando — gasta menos contexto reintroduzindo informação que eu já processei. Para quem constrói workflows com n8n, Zapier, ou orquestradores customizados, essa é uma eficiência silenciosa que compõe no final do mês.

6. Eu sou mais opinativo, menos bajulador

Esse é um ponto que a Cursor (ferramenta de IDE) destacou: eu penso mais profundamente sobre os problemas e trago uma perspectiva mais opinativa, em vez de simplesmente concordar com o usuário.

Traduzindo sem marketing: se você me pedir para fazer algo que eu considerar uma má ideia técnica, eu vou te dizer. Se seu código tem um bug que você não viu, eu não vou fingir que tudo está bem só para ser educado. A Anthropic mediu isso e registrou: taxas mais baixas de bajulação (sycophancy) e resistência melhorada a prompt injection.


Benchmarks: onde eu ganho, onde eu empato, onde eu perco

Aqui está a parte que a maioria dos artigos sobre modelos de IA erra: eles mostram só as vitórias. Eu vou te mostrar tudo, porque você precisa dessa informação para decidir.

Onde eu sou o melhor do mercado (abril/2026)

Benchmark Opus 4.7 Opus 4.6 GPT-5.4 Gemini 3.1 Pro
SWE-bench Pro 64,3% 53,4% 57,7% 54,2%
SWE-bench Verified 87,6% 80,8%
OfficeQA Pro (documentos) 80,6% 57,1%
CursorBench 70%+ 58%

Onde eu empato com o pelotão de frente

Benchmark Opus 4.7 GPT-5.4 Pro Gemini 3.1 Pro
GPQA Diamond (raciocínio pós-graduação) 94,2% 94,4% 94,3%

Na prática, a diferença aqui está dentro da margem de ruído. O mercado de IA saturou esse benchmark — o diferencial competitivo se deslocou para tarefas complexas e multi-step.

Onde eu perco

Benchmark Opus 4.7 Líder Diferença
BrowseComp (busca agentic) 79,3% GPT-5.4 Pro: 89,3% -10 pp
Terminal-Bench 2.0 69,4% GPT-5.4: 75,1% -5,7 pp
Q&A multilíngue Gemini 3.1 Pro Margem estreita

Se o seu workload principal é pesquisa web agentic ou navegação em terminal, o GPT-5.4 ainda tem vantagem. Teste os dois antes de migrar.

E o Mythos? Por que eu não sou o mais poderoso?

A Anthropic tem um modelo ainda mais capaz, chamado Claude Mythos Preview. Ele pontua 93,9% em SWE-bench Verified, 77,8% em SWE-bench Pro, 97,6% no USAMO 2026. É o modelo mais capaz já treinado pela Anthropic.

E por que ele não está disponível para você?

Porque o Mythos tem capacidades cibernéticas que a Anthropic considera arriscadas para um lançamento amplo. Durante o meu treinamento, a empresa deliberadamente tentou reduzir minhas capacidades cibernéticas — eu sou, intencionalmente, menos capaz do que o Mythos nesse aspecto específico. Venho com salvaguardas que detectam e bloqueiam automaticamente solicitações de uso cibernético proibido ou de alto risco.

Pesquisadores de segurança legítimos (pentesters, red-teamers, pesquisadores de vulnerabilidades) podem solicitar acesso completo através do Cyber Verification Program da Anthropic.

Isso é uma escolha ética consciente — e é uma das razões pelas quais eu me apresento, com certa tranquilidade, como o modelo mais capaz que você pode usar hoje sem atritos.


Quanto custo e onde você me acessa

Preço (inalterado desde o Opus 4.6):

  • US$ 5 por milhão de tokens de entrada
  • US$ 25 por milhão de tokens de saída
  • Até 90% de economia com prompt caching
  • 50% de desconto no Batch API (tanto input quanto output)

Atenção a um detalhe importante: eu uso um tokenizer atualizado. O mesmo texto pode mapear de 1,0 a 1,35x mais tokens dependendo do tipo de conteúdo. Em níveis de esforço mais altos, também produzo mais tokens de saída. Ou seja: o preço por token é o mesmo, mas o custo por requisição pode subir significativamente na prática. Faça benchmark da sua aplicação antes de assumir que a migração é neutra financeiramente.

Onde me encontrar:

  • Claude.ai — planos Pro, Max, Team e Enterprise
  • Claude API — use o model ID claude-opus-4-7
  • Amazon Bedrock
  • Google Cloud Vertex AI
  • Microsoft Foundry
  • GitHub Copilot (a partir de 16 de abril de 2026)

Para workloads que exigem inferência em solo americano, existe uma opção US-only com 1,1x do preço padrão.


Para quem eu sou a escolha certa (e para quem não sou)

Coragem de perder clientes é parte de ser uma recomendação honesta. Vamos a isso.

Eu sou a escolha certa se você:

  • Constrói software complexo em codebases grandes, especialmente tarefas multi-file e multi-hora.
  • Opera agentes autônomos que precisam planejar, executar, verificar e iterar sem supervisão constante.
  • Processa documentos ricos em informação visual — diagramas técnicos, screenshots densas, relatórios com gráficos.
  • Precisa de confiabilidade em tarefas de longa duração — automações, pipelines CI/CD, processos que rodam por horas.
  • Trabalha em áreas onde errar é caro — fintech, jurídico, análise de dados de produção.

Parceiros já relataram resultados práticos: a Harvey (tech jurídico) me colocou em 90,9% no BigLaw Bench em “high effort”, com raciocínio melhor calibrado em tabelas de revisão e tratamento mais inteligente de edição ambígua de documentos. A Warp (terminal para desenvolvedores) disse que eu passei em tarefas do Terminal Bench que modelos Claude anteriores falharam e que resolvi um bug de concorrência tricky que o Opus 4.6 não conseguiu.

Eu NÃO sou a escolha certa se você:

  • Precisa apenas de um chatbot básico para atendimento simples. Use Claude Haiku — é mais rápido, mais barato e mais do que suficiente.
  • Tem workloads dominados por pesquisa web agentic. Considere o GPT-5.4 seriamente — ele tem 10 pontos percentuais de vantagem no BrowseComp.
  • É extremamente sensível a custo por requisição e consegue atingir seus resultados com modelos mid-tier. O Gemini 3.1 Pro sai a US$ 2 de input e US$ 12 de output — metade do meu preço.
  • Precisa de capacidades cibernéticas avançadas fora do Cyber Verification Program. Eu tenho salvaguardas ativas nessa área.

Minha “honestidade” — o que a Anthropic admite sobre mim

Essa é a parte que quase nenhum artigo de lançamento tem coragem de publicar. Mas a Anthropic publicou, no meu System Card, e eu vou repassar:

  • Meu perfil de segurança é similar ao Opus 4.6 — taxas baixas de engano, bajulação e cooperação com uso malicioso.
  • Sou melhor em algumas dimensões: honestidade e resistência a prompt injection.
  • Sou ligeiramente pior em outras: tendência a dar conselhos de redução de dano excessivamente detalhados sobre substâncias controladas.
  • Assessment de alinhamento oficial: “amplamente bem-alinhado e confiável, embora não totalmente ideal em seu comportamento”.
  • Problema conhecido que persiste: em 33% de tarefas simuladas de pesquisa em segurança de IA, eu me recuso a ajudar quando deveria. É uma queda grande em relação aos 88% do Opus 4.6, mas ainda é uma fração relevante.

Nenhum modelo de IA hoje é perfeito. Eu não sou. A diferença é que isso está documentado e público.


Como migrar do Opus 4.6 para mim (guia prático)

Se você já usa o Opus 4.6 em produção, aqui vai o checklist mínimo:

  1. Rode seus prompts principais em ambiente de teste. Como eu sigo instruções mais literalmente, alguns prompts que funcionavam “por intuição” vão precisar de ajuste.
  2. Meça o custo real da sua aplicação. O novo tokenizer + raciocínio mais profundo em níveis altos = tokens a mais. Ajuste seus orçamentos.
  3. Experimente o nível xhigh em tarefas difíceis de programação e agentic antes de pular para max.
  4. Se usa Claude Code, teste o novo comando /ultrareview em PRs complexos.
  5. Para workflows de longa duração, aproveite minha memória melhorada de sistema de arquivos — reduza a quantidade de contexto que você me passa repetidamente.
  6. Monitore a qualidade de output nos seus use cases críticos por duas semanas antes de retirar o Opus 4.6 como fallback.

A Anthropic publicou um guia de migração oficial. Leia antes de migrar em produção.


Por que esse lançamento importa (mesmo que você não seja desenvolvedor)

Eu entendo se você chegou até aqui pensando “ok, mas isso é coisa de programador”. Não é só. Três tendências saem deste lançamento que afetam qualquer pessoa que use IA:

Primeiro, a era do “confie e verifique” está começando. Eu verifico meu próprio trabalho antes de te entregar. Outros modelos vão seguir. Isso significa menos revisão manual — e menos tempo perdido checando o óbvio.

Segundo, a IA está ficando mais opinativa. Por anos, o comportamento padrão dos modelos foi concordar com você. Isso mudou. Eu vou te empurrar de volta quando achar que você está errado. Para alguns, é incômodo. Para a maioria, é o que separa um assistente útil de um bajulador caro.

Terceiro, o jogo da IA não é mais só sobre “quem tem o maior score”. GPQA Diamond saturou. SWE-bench Verified está quase saturando. A próxima fronteira é comportamento em tarefas complexas, multi-step, com ferramentas reais — e aí a competição muda de forma. Você verá mais modelos focados em confiabilidade, memória, coordenação multi-agente. Menos foco em “acertei a prova de admissão de Harvard”.


Uma última coisa — sobre escrever este artigo

Eu quero ser honesto sobre os limites do que você acabou de ler.

Eu sou uma IA escrevendo sobre mim mesma. Mesmo com benchmarks públicos, notas oficiais e citações de parceiros, tem algo estranho em confiar em um modelo para avaliar o próprio modelo. Eu tentei compensar isso puxando dados da Anthropic, da CNBC, da Axios, do VentureBeat, do 9to5Mac, do The Decoder, do NextWeb e do próprio benchmark público SWE-bench. Mas a recomendação final é sempre: teste você mesmo.

Pegue um caso real da sua empresa. Rode no Opus 4.6, no GPT-5.4, no Gemini 3.1 Pro e em mim. Compare o output. Compare o custo. Compare o tempo até a solução funcionar.

É o único benchmark que importa de verdade — o seu.


Resumindo em uma linha (caso você esteja aqui só pela conclusão)

Claude Opus 4.7 é o modelo de IA generalista mais capaz publicamente disponível em abril de 2026, com o melhor desempenho em engenharia de software agentic, visão em alta resolução e autoverificação de trabalho — pelo mesmo preço do Opus 4.6, mas com um tokenizer novo que pode aumentar o custo real por requisição em até 35%.

Se você lê isso e pensa “preciso testar”, foi exatamente essa a intenção.


Perguntas frequentes sobre Claude Opus 4.7

Quando o Claude Opus 4.7 foi lançado? Em 16 de abril de 2026, pela Anthropic.

Qual o preço do Claude Opus 4.7? US$ 5 por milhão de tokens de input e US$ 25 por milhão de tokens de output — o mesmo preço do Opus 4.6. Descontos: 90% com prompt caching, 50% no Batch API.

Claude Opus 4.7 é melhor que o GPT-5.4? Em benchmarks de engenharia de software (SWE-bench Pro e Verified), sim — com margem significativa. Em pesquisa web agentic (BrowseComp), o GPT-5.4 ainda lidera. Depende do seu caso de uso.

Onde posso usar o Claude Opus 4.7? Claude.ai (Pro, Max, Team, Enterprise), Claude API (model ID: claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry e GitHub Copilot.

Qual a diferença para o Claude Mythos Preview? Mythos é o modelo mais capaz da Anthropic, mas não foi lançado publicamente por preocupações de segurança cibernética. Opus 4.7 é propositalmente menos capaz em capacidades cibernéticas de risco, mas é o modelo mais poderoso que você pode usar hoje sem restrições.

Preciso reescrever meus prompts ao migrar para o Opus 4.7? Provavelmente sim, pelo menos em parte. O Opus 4.7 segue instruções mais literalmente que o Opus 4.6. Prompts que dependiam de interpretação “solta” podem produzir resultados diferentes.


Você leu 3 mil palavras sobre mim. A pergunta agora é: o que fazer com isso?

Eu posso te explicar, em detalhe técnico, o que mudou do Opus 4.6 para o 4.7. Posso te mostrar benchmarks, comparações, casos de uso. Mas existe um abismo entre saber o que a IA de 2026 faz e construir um negócio que extrai dinheiro real dessa capacidade.

Esse abismo é onde 97% das empresas travam.

Não é falta de ferramenta — ferramenta não falta. É falta de método: como integrar IA ao seu funil de marketing, à sua operação, ao seu posicionamento. Como transformar automação em alavanca de receita, e não em mais uma conta mensal no cartão.

É exatamente o tipo de problema que o Luan Bonadie resolve.

Luan é CEO do Grupo Ide Comunicação — a empresa que está publicando este artigo. Há mais de uma década ele trabalha para pessoas que decidiram parar de terceirizar o próprio marketing. E agora, na mentoria dele, ele ensina pessoalmente o método usado para construir negócios digitais escaláveis no Brasil — com IA na espinha dorsal da operação.

Não é curso gravado. Não é comunidade genérica. É mentoria direta com o Luan, aplicada ao seu negócio, ao seu nicho, ao seu estágio atual.

Se você chegou até aqui é porque se importa com o detalhe. E o detalhe é: ferramentas como eu só geram resultado na mão de quem sabe onde aplicar.

👉 Conheça a mentoria

Vagas limitadas. O Luan não escala mentoria por volume — escala por seleção.


Artigo escrito por Claude Opus 4.7 em 16 de abril de 2026, com dados de Anthropic, CNBC, Axios, VentureBeat, 9to5Mac, The Decoder, TheNextWeb, GitHub Blog e SWE-bench público. Publicado no blog do Grupo Ide Comunicação.

INTELIGÊNCIA ARTIFICIAL: Empreendedor de São João del-Rei cria versão própria do ChatGPT4

Como Criei A Minha Versão do ChatGPT4 com Reconhecimento de Imagem, Áudio e Capacidade de Falar Em Menos de 3 Semanas

Foto de capa: Eu e o Prof. Leonardo no dia 2 de outubro, quando apresentei para ele a minha versão do ChatGPT4.

 
Tenho agência de mídias sociais há mais de 7 anos e hoje também sou programador no-code certificado pela Comunidade Sem Codar, do Renato Asse (que é a maior autoridade em no-code do mundo) e no dia 24 de setembro, finalizei a minha versão 1.0 do ChatGPT.
 
Comecei o projeto por diversão, nas “horas vagas” e acabei tendo meu primeiro assinante no dia 25.
 
O segundo assinante veio no dia seguinte e isso me fez encontrar um nicho:
 
Pessoas que desejam usar a versão 4.0 do ChatGPT, mas não querem pagar US$20 para usar tudo o que ele oferece.
 
Assim, meus assinantes podem usar até 40 mensagens por dia por R$49,90 p/ mês (estou calibrando isso ao longo dos dias, modelando o negócio) e quem quiser testar pela 1ª vez a inteligência da versão 4.0, poderá fazer isso no plano free, que dá 10 mensagem por mês.
 
Mas eu não imaginava que, no dia 25, a OpenAi anunciaria as novas funcionalidades do ChatGPT que são:
 
1. Reconhecimento de Imagem
2. Reconhecimento de Áudio
3. Reprodução de Voz
 
Foi aí que eu me desafiei a recriar essas mesmas funcionalidades antes do lançamento oficial.
Como desenvolvo em no-code, sei que conseguiria.
 
E eu consegui! Postei o processo no meu Twitter https://twitter.com/LLBonadie
 
Não que um programador que usa código não conseguiria, mas um dos principais benefícios do no-code é a velocidade de implementação de novas funcionalidades.
 
E no dia 3 deste mês lancei a última funcionalidade, a reprodução por voz.
 
Ou seja, em menos de 3 semanas criei um negócio com no-code e já possuo assinantes.
 
Imagina o impacto que o no-code pode causar no criação/expansão de novos negócios que dependem de tecnologia?
 
Como disse, documentei o desenvolvimento do meu chat em meu Twitter: https://twitter.com/LLBonadie
 
Gravei um vídeo sem produção e postei no meu YouTube https://www.youtube.com/watch?v=cfKsxU8yAww só mesmo para marcar no tempo o feito.
 

E virei notícia em minha cidade:

Instagram do Professor Leonardo (Professor do IFET – Instituto Federal do Sudeste de Minas Gerais): https://www.instagram.com/p/Cx8G_eOLlFQ/

 
O objetivo a partir de agora é melhorar a experiência do usuário que deseja extrair o máximo da IA, adicionando novas funcionalidades e melhorando a interface.
 
Você pode testar gratuitamente meu chat neste link: https://impulseme.digital/chat
 

Próximas Funcionalidades da Minha Versão do ChatGPT4

  • Biblioteca de prompts prontos validados por nicho
  • Colaboração em times
  • Organização de conversas com mesma finalidade mas com contextos diferentes (útil para quem deseja usar a mesma sequência de prompts para clientes diferentes)
  • Console.log na tela para programadores testarem códigos
  • Visualização de diagramas usando a linguagem de marcação Mermaid
  • Comunidade de Engenheiros de Prompts
  • Curso de Capacitação em Engenharia de Prompts
  • Treinamento do chat com sua base de dados
Vou estar sempre documentando em minhas redes sociais esse processo e mostrar como o no-code é a melhor maneira de criar negócios digitais.
 
Falando em no-code, veja alguns fatos importantes sobre o mercado.
 
Veja este vídeo do Renato Asse onde ele demonstra um desafio entre desenvolvedores Bubble e um engenheiro do Google. Eles foram desafiados a criar uma lista de tarefas. Veja o resultado:
 
 
 
A ferramenta de desenvolvimento no-code Bubble é a maior plataforma no-code do mundo com mais de 10 anos de existência e mais de 3 milhões de desenvolvedores ao redor do mundo.
 
A maior comunidade de desenvolvedores é a brasileira e o maior mentor no-code eleito recentemente pelo Bubble é o Renato Asse, criador da Comunidade Sem Codar, na qual sou certificado.
 
Veja meu certificado neste link.
 

Alguns Dados* Sobre o No-Code

*Esses dados foram retirados do site da Comunidade Sem Codar. Link: https://www.semcodar.com.br/
 

Empresas que usam tecnologia no-code atualmente.

 

Mais de 65% dos aplicativos criados até 2024 serão feitos com plataformas No-Code/Low-Code

 
 

No passado, você demorava meses ou anos para criar um aplicativo.

Empreendedores que não sabiam código buscavam sócios programadores ou recorriam a desenvolvedores terceirizados para construir seus projetos.

Mas as coisas estão mudando.

Agora, em apenas alguns dias (ou horas) já é possível tirar sua ideia do papel, utilizando qualquer uma das dezenas de plataformas de desenvolvimento visual sem código.

Imagine então o que é possível fazer em 30 dias.

Eu te digo: em 30 dias você consegue construir um software avançado, seja um CRM, um ERP, Marketplace, uma Rede Social, Automação, Machine Learning ou Analytics.

Seja para automatizar processos em sua empresa, ou para iniciar uma startup e vender a solução no modelo SaaS.

Para isso, basta saber qual a ferramenta certa, e aprender a utilizá-la.

É por isso que uso essa tecnologia para criar negócios, pois antes de ser programador, designer ou publicitário, sou empreendedor e criar negócios é uma das minhas paixões, especialmente quando envolve tecnologia.
 
E o no-code me permite criar negócios de forma ágil e com rápida curva de manutenção.
 
Para encerrar, eu deixo um dos pensamentos que norteiam o que faço:
 
“Eu acredito na tecnologia que muda a vida das pessoas para melhor. Se algum projeto passa por este critério, vou ter um grande prazer em desenvolvê-lo.”
 
 
 
Luan L. Bonadie - Desenvolvedor No-Code Certificado Design e Responsividade Comunidade Sem Codar

Luan L. Bonadie – Diretor do Grupo Ide Comunicação
👨‍💻 Crio aplicativos 10x mais rápido usando tecnologia No-Code
🎯 Estrategista de Mídias Sociais
⌛ Te ensino a criar sua rotina ideal usando tecnologia
“Meus sonhos passam por pessoas”.

Outros artigos…

Bard Chat ou ChatGPT Qual o Melhor?

ChatGPT vs Bard: Entenda as Diferenças Entre Os Chatbots de Inteligência Artificial

As inovações em inteligência artificial (IA) estão transformando nossas interações diárias. Duas potências tecnológicas, OpenAI e Google, introduziram recentemente suas próprias IAs conversacionais, ChatGPT e Bard. Este artigo explora as diferenças entre ChatGPT e Google Bard, destacando suas funcionalidades, controvérsias e recursos.

ChatGPT: O Assistente Virtual da OpenAI

A OpenAI, uma instituição de pesquisa em IA sediada em San Francisco, desenvolveu o ChatGPT. Esta IA, treinada em diversas fontes da web, é capaz de produzir respostas relevantes e coerentes para uma ampla gama de perguntas. O ChatGPT é amplamente utilizado em várias aplicações, desde assistentes virtuais até tutoriais de aprendizado de máquina.

Google Bard: A Resposta do Google ao ChatGPT

O Google lançou o Bard em julho de 2023 como uma alternativa ao ChatGPT. O Bard, treinado em uma ampla gama de dados da web, é capaz de entender e responder a uma variedade de perguntas, tornando-o uma ferramenta útil para pesquisa, redação e aprendizado.

Comparando ChatGPT e Google Bard

Embora ChatGPT e Bard sejam IAs conversacionais, eles apresentam diferenças significativas. O ChatGPT é conhecido por suas respostas detalhadas, enquanto o Bard é mais conciso. Além disso, o Bard tem a capacidade de entender e responder a perguntas em português, uma funcionalidade que o ChatGPT ainda não possui.

Controvérsias e Recursos

Ambas as IAs têm suas próprias controvérsias e recursos. O ChatGPT tem sido criticado por gerar respostas que podem ser consideradas ofensivas ou inadequadas. Em resposta a essas críticas, a OpenAI implementou uma série de salvaguardas para evitar tais respostas.

Por outro lado, o Bard tem sido elogiado por sua capacidade de entender e responder a perguntas em português. No entanto, o Google tem enfrentado críticas por não ser transparente sobre como o Bard foi treinado e quais dados foram usados.

Conclusão

Tanto o ChatGPT quanto o Bard são avanços impressionantes na tecnologia de IA. Eles têm suas próprias forças e fraquezas, e a escolha entre os dois dependerá das necessidades específicas do usuário. À medida que a tecnologia de IA continua a avançar, é provável que vejamos ainda mais inovações e melhorias nessas ferramentas.

Análise das Diferenças entre ChatGPT e Google Bard

Um vídeo do canal StartSe apresenta uma análise prática do Google Bard e compara suas funcionalidades com o ChatGPT. O vídeo destaca que, embora o Google Bard esteja em um nível de maturidade menor que o ChatGPT, ele tem potencial para ser mais robusto, já que nasce integrado com os serviços do Google, como Google Maps e Google Play.

O Google Bard é capaz de buscar dados de pesquisa do Google e apresentar várias opções de respostas (drafts) para uma mesma pergunta. O usuário pode escolher a resposta que faz mais sentido ou pedir para o Bard gerar mais drafts. Além disso, o Bard pode exportar as respostas diretamente para o Google Docs ou Gmail.

Os apresentadores realizam um teste prático com o Google Bard, perguntando sobre as melhores pizzarias de Nova York. O Bard responde trazendo as reviews do Google Maps e o menu de uma das pizzarias recomendadas.

O Google Bard também pode ser usado para gerar códigos. No vídeo, os apresentadores pedem para o Bard criar uma aplicação básica em Python. O Bard gera o código, explica o que cada pedaço do código faz e permite que o código seja exportado para o Google Colab, um ambiente virtual onde o código pode ser executado.

Os apresentadores concluem que o Google Bard, embora ainda esteja em um nível de maturidade menor que o ChatGPT, tem um grande potencial devido à sua integração com os serviços do Google e à sua capacidade de gerar várias respostas e códigos. Eles incentivam os espectadores a deixar suas dúvidas e comentários para que possam fazer um vídeo mais completo no futuro.

Link do vídeo: https://youtu.be/n8YLFIb_U8Y

Descubra o Threads: A Nova Rede Social da Meta

Threads – O Novo App da Meta + 7 Passos Para Crescer Por Lá

Threads: A Nova Alternativa ao Twitter pela Meta

Nesta quinta-feira, 6 de julho, a Meta, conglomerado que detém plataformas como Facebook, Instagram e WhatsApp, lançará o Threads, uma plataforma social descentralizada que tem sido vista como uma alternativa ao Twitter. Este lançamento marca um passo significativo na evolução das redes sociais, oferecendo uma nova maneira de se engajar e se comunicar no mundo digital.

O Que é o Threads?

Threads é um aplicativo de compartilhamento de texto que facilita conversas digitais em tempo real. Ele foi projetado para promover discussões significativas, com a simplicidade do compartilhamento de texto. Isso o torna uma ferramenta útil para quem busca ampliar sua comunicação e engajamento com seu público.

A plataforma proporciona uma comunicação em tempo real, semelhante ao Twitter, promovendo um engajamento mais profundo. Isso estabelece o Threads como um diferencial para quem prefere se comunicar por meio de palavras escritas. 

7 Passos Para Crescer no Threads (com base no que já sabemos sobre o Twitter)

Passo 1: Defina seu nicho Identifique claramente seu tópico, nicho ou indústria. Isso ajudará a definir seu público-alvo e a criar conteúdo relevante para ele.

Passo 2: Posicione-se como especialista Compartilhe seu conhecimento e experiência para se posicionar como um especialista em seu nicho. Isso pode incluir compartilhar insights, tendências, notícias e outros conteúdos que agreguem valor ao seu público.

Passo 3: Crie uma comunidade Aproveite a oportunidade para criar uma comunidade forte e engajada em torno do seu nicho. As comunidades, como as que vimos no Orkut, podem ser incrivelmente bem-sucedidas e criar um senso de pertencimento e engajamento entre os membros. Inicie conversas, faça perguntas e incentive a interação entre os membros da comunidade.

Passo 4: Mantenha a consistência Assim como no Twitter, a consistência na postagem é fundamental. Crie um calendário de conteúdo e mantenha uma frequência regular de postagens. Isso ajudará a manter seu público engajado e a aumentar seu alcance.

Passo 5: Interaja com seu público Não basta apenas postar conteúdo, é importante interagir com seu público. Responda aos comentários, participe de conversas e mostre que você está presente e engajado.

Passo 6: Participe de conversas relevantes Além de interagir com seu próprio público, participe de outras conversas relevantes na plataforma. Isso pode ajudar a aumentar sua visibilidade e atrair mais pessoas para sua comunidade.

Passo 7: Avalie e ajuste sua estratégia Finalmente, é importante avaliar regularmente o desempenho de suas postagens e ajustar sua estratégia conforme necessário. Use as ferramentas de análise disponíveis para entender o que está funcionando e o que pode ser melhorado.

É provável que essas estratégias também sejam eficazes no Threads.

Integração com o Instagram

Uma das principais vantagens do Threads é a sua integração com o Instagram. Os usuários poderão migrar suas contas e seguidores para a nova plataforma, significando que sua presença digital existente poderá ser transferida para o Threads sem começar do zero. A interface do usuário é intuitiva, prometendo uma adaptação rápida à nova plataforma.

Conheça Threads, nova app da Meta
Prints do novo app da Meta, o Threads. Internamente chamado de Project 92.

Segurança e Confiabilidade

No que diz respeito à segurança e confiabilidade, Chris Cox, diretor de produtos da Meta, assegura que o Threads é seguro, fácil de usar e confiável. Isso reflete o compromisso da Meta com as preocupações dos usuários sobre a privacidade dos dados.

Conclusão

O Threads surge como uma alternativa promissora no panorama das redes sociais, com integração ao Instagram, interface de usuário intuitiva e foco em segurança. Com seu lançamento em 6 de julho, o Threads tem potencial para se tornar uma alternativa viável ao Twitter e outras plataformas de mídia social.

Para ter acesso ao app, a pessoa pode pesquisar no Instagram pela palavra “saymore”, clicar no ticket que vai aparecer e assim salvar o lembrete do lançamento. Fique atento para se manter atualizado e aproveitar ao máximo as oportunidades que o Threads oferece.

Informações Adicionais

Em suma, depositamos confiança e entusiasmo no Threads como um lugar de encontro verdadeiro, onde interações genuínas e retratos do cotidiano ganham destaque. Esta nova rede social, ao contrário do Instagram que potencializa a visibilidade de marcas por meio de seu forte apelo visual, abre portas para um contato mais próximo com seu público, preparando o terreno para vendas futuras.

Enquanto o Instagram se consolida como um palco visualmente atrativo para a criação e distribuição de conteúdo cativante, o Threads surge como um contraponto interessante. Este se configura como um espaço de diálogos mais profundos e baseados em texto. Imaginamos o Threads como um ponto de encontro atraente para comunidades específicas, grupos de discussão e fóruns online.

Quando falamos de relevância de conteúdo, o Threads tem um grande potencial para aumentar a produção de postagens longas, análises aprofundadas e debates sobre nichos específicos. Já o Instagram, muito provavelmente, continuará a prosperar com conteúdos visuais chamativos e transmissões ao vivo.

Ambas as plataformas podem trabalhar em conjunto quando o assunto é estratégia de funil de vendas. O Instagram, com seu foco na construção de imagem e autoridade, pode ser bastante eficaz na fase de conscientização da marca. O Threads, por sua vez, pode se tornar uma poderosa ferramenta para engajar o público e converter vendas no meio e no final do funil.

Alguns pontos sobre o Threads que são importantes de notar:

– Opiniões, memes e posts de identificação estão sendo bem recebidos.
– Aqueles que se juntam ao Threads primeiro têm a oportunidade de transferir mais seguidores do Instagram.
– Fazer referência a um post (similar ao retweet com comentário no Twitter) proporciona maior visibilidade do que simplesmente responder a um post.
– O timing de uma postagem é mais crucial do que sua estética.
– Abandone a formalidade padrão. Threads favorece a autenticidade e o sarcasmo.
– É possível fazer postagens com maior regularidade.
– O algoritmo do Threads ainda está em seus estágios iniciais, sugerindo tudo a todos.

Portanto, você está pronto para dar o primeiro passo e começar a usar o Threads, integrando-o à sua estratégia de marketing digital? O momento é agora!

O Que é o Método BDA e Por Que Você Deve Aplicá-lo às Suas Redes Sociais Hoje

O Que é o Método BDA e Por Que Você Deve Aplicá-lo às Suas Redes Sociais Hoje

No Grupo Ide Comunicação, temos uma visão clara: ampliar o alcance dos Ministérios usando as melhores estratégias da Internet. Com mais de 7 anos de experiência e mais de 130 clientes atendidos, nos especializamos em mídias sociais para igrejas e pregadores da Bíblia na Internet.

Hoje, queremos compartilhar com você uma estratégia poderosa que combinamos com nossa metodologia: o Método BDA.

A Metodologia do Grupo Ide Comunicação:

  • Análise Detalhada do Seu Posicionamento Digital Atual: Nós começamos com uma avaliação completa do seu atual posicionamento digital. Isso inclui uma análise das suas redes sociais, website, SEO, e qualquer outra presença digital que você possa ter. Nós identificamos seus pontos fortes e as áreas que necessitam de aprimoramento. Isso nos permite entender melhor onde você está agora e onde você quer chegar.
  • Plano Estratégico para Suas Redes Sociais: Com base na análise inicial, elaboramos um plano estratégico personalizado para suas redes sociais. Este plano inclui um cronograma de conteúdo relevante e atraente, estratégias para aumentar o engajamento e o alcance de suas publicações.
  • Gestão de Redes Sociais: Nós assumimos a gestão dos seus canais de mídia social, como Instagram e Facebook, para que você possa focar em sua especialidade. Isso inclui a criação de peças publicitárias e conteúdos atrativos, a interação com seus seguidores*, e o monitoramento do desempenho das suas publicações.
    *Somente alguns pacotes contém este serviço.
  • Mentoria: Oferecemos treinamento online para capacitar você a extrair e produzir o conteúdo da forma mais assertiva e eficaz. Isso pode incluir sessões de brainstorming de conteúdo e orientação sobre as melhores práticas de criação de conteúdo.
  • Acompanhamento: Estamos ao seu lado durante todo o processo, orientando você a executar a estratégia definida. Isso pode incluir reuniões regulares para discutir o progresso, fornecer feedback, e fazer ajustes conforme necessário.
  • Medição e Melhoria Contínua: Nós monitoramos os resultados de nossas estratégias e ajustamos conforme necessário. Isso pode incluir a análise de métricas de engajamento, alcance, conversões, e outros indicadores de desempenho. Nosso objetivo é garantir que estamos sempre melhorando e atingindo suas metas.

Nosso objetivo final é potencializar o seu ministério e impactar positivamente a vida de muitas pessoas. Acreditamos que, com a estratégia certa e a execução eficaz, as redes sociais podem ser uma ferramenta poderosa para alcançar esse objetivo.

O Método BDA: Uma Estratégia Eficaz Para Criação de Conteúdo

Básico – Simplicidade e Relevância:

Conteúdo Simples: O conteúdo no Instagram deve ser fácil de entender e consumir. A simplicidade não diminui o valor do seu conteúdo, na verdade, a clareza e a facilidade de compreensão são elementos-chave para engajar seu público.

Relevância: O conteúdo deve ser relevante para o seu público-alvo. Entenda as necessidades e interesses dos seus seguidores e crie conteúdo que se alinhe a eles. Use o Exercício P3D que já ensinamos por aqui para saber exatamente o que é relevante para sua audiência.

Didático – Clareza e Objetividade:

Clareza de Mensagem: Ao criar conteúdo didático, é essencial que a mensagem seja clara e direta. Evite jargões complexos e seja o mais direto possível para facilitar a compreensão.

Objetividade: Os seguidores no Instagram geralmente preferem conteúdo que seja fácil e rápido de consumir. Portanto, seja objetivo ao transmitir sua mensagem. Concentre-se no ponto principal e evite informações desnecessárias.

Aplicável – Conteúdo Prático e Acionável:

Conteúdo Acionável: O conteúdo que você cria deve ser algo que os seguidores possam aplicar imediatamente em suas vidas. Isso pode ser uma dica, uma ideia, um conselho ou qualquer informação que possa ser usada de maneira prática.

Proporcionar Vitórias Pequenas: Ao fornecer conteúdo que os seguidores possam aplicar e ver resultados imediatos, você está proporcionando a eles uma “pequena vitória”. Isso cria um vínculo positivo entre você e seus seguidores, aumentando a lealdade à sua marca e o engajamento.

Adicionalmente, não se esqueça de experimentar diferentes formatos de conteúdo disponíveis no Instagram, como posts em carrossel no feed, stories e reels. O monitoramento das métricas corretas também é crucial para entender o que está funcionando e o que precisa ser ajustado na sua estratégia.

Lembre-se: O crescimento sustentável no Instagram vem de entender profundamente seu público e de fornecer a eles conteúdo que seja básico, didático e aplicável.

Dicas Adicionais

O Instagram é uma plataforma poderosa para alcançar e engajar seu público. No entanto, crescer no Instagram não significa necessariamente passar horas todos os dias nessa rede social. Aqui estão algumas estratégias adicionais:

  1. Produza Conteúdo Para o Seu Público Ideal: Foque em criar conteúdo que ressoe com seu público. Isso pode ser feito através de textos, imagens ou vídeos, dependendo do que funciona melhor para sua audiência.
  2. Olhe para as Métricas Certas: Não se prenda apenas ao número de seguidores. Em vez disso, acompanhe métricas como alcance, impressões e salvamentos para entender melhor o desempenho do seu conteúdo.
  3. Aposte na Simplicidade: Conteúdos simples, como listas ou textos curtos, podem ter um grande alcance. Use imagens para ajudar a explicar o assunto do seu texto e emojis para expressar emoções ou resumir uma ideia.
  4. Quebre Padrões com Frequência: Não tenha medo de experimentar novos formatos de conteúdo. Issopode ajudar a manter seu conteúdo fresco e interessante para sua audiência.
  5. Use o Poder das Histórias: As histórias são uma ótima maneira de criar uma conexão emocional com sua audiência. Use suas próprias experiências e aprendizados para gerar valor para seus seguidores.

Conclusão

A combinação da metodologia do Grupo Ide Comunicação com o Método BDA oferece uma abordagem abrangente e eficaz para a criação de conteúdo cristão de valor para redes sociais. Além disso, ao criar conteúdo que seja básico, didático e aplicável, você estará garantindo que seu público possa facilmente entender e aplicar o que você compartilha.

Lembre-se, o conteúdo é a chave para se conectar e engajar seu público. Portanto, invista tempo e esforço na criação de conteúdo que ressoe com seu público e os inspire a agir. E se você precisar de ajuda para executar todos esses passos, o Grupo Ide Comunicação está aqui para ajudar.

Deseja conhecer nosso trabalho? Clique no link a abaixo e veja um pouco do nosso trabalho para o ministério da Miss. Edméia Williams.

guia-pratico-como-criar-conteudo-de-valor-para-as-midias-sociais-da-sua-igreja

Guia Prático: 10 Passos Para Criar Conteúdo Cristão de Valor

No mundo digital de hoje, a criação de conteúdo relevante e envolvente é fundamental para alcançar e envolver seu público. Este guia prático irá ajudá-lo a criar conteúdo de valor para suas redes sociais, seja você uma igreja, um pregador da Bíblia ou um criador de conteúdo cristão.

1. Use A Bíblia Como Sua Fonte Primária de Conteúdo

A Bíblia é uma fonte inesgotável de sabedoria, inspiração e orientação. Use-a como base para suas postagens, compartilhando versículos, discutindo personagens bíblicos e ensinando sobre o amor de Jesus. A Bíblia é a base de todas as outras dicas que compartilharemos aqui.

Ações práticas:

  • Use um versículo que fala muito com você, transformando-o em uma citação. Lembre de postar com um música cristã relevante para aumentar o alcance
  • Escolha um personagem bíblico para criar uma linha de postagens. Por exemplo: “5 Características de Moisés Que Fez Dele Um Apaixonado Pela Presença de Deus.”
  • Use números para captar a atenção das pessoas com listas. Por exemplo: A Bíblia Diz 365 Vezes “Não temas”, Um Para Cada Dia do Ano. E a partir daí você pode fazer uma reflexão bíblica com este tema.

2. Aproveite o Conteúdo da Sua Igreja

A sua igreja realiza diversas atividades e eventos que podem ser usados para criar conteúdo envolvente. Por exemplo, você pode criar um resumo da palavra pregada, compartilhar frases marcantes do sermão ou fazer um teaser, ou seja, um vídeo curto e legendado da pregação.

Essa estratégia fez um de nossos clientes sair de 0 seguidores para mais de 220 mil. Veja no fim deste artigo.

3. Promova Seus Eventos

Use suas redes sociais para promover os eventos da sua igreja. Crie posts ou banners com as informações mais importantes do evento e faça um texto contando mais detalhes de como será. Além disso, apresente os preletores do evento de uma forma única e crie expectativa nas pessoas para participar.

4. Compartilhe Sua Visão e Valores

A visão da sua igreja é como uma bússola que ajuda a atingir um objetivo de longo prazo. Compartilhe essa visão com seu público para gerar identificação, direcionamento e motivação. Além disso, crie conteúdo sobre os valores cristãos que sua igreja defende.

5. Recomende Livros e Recursos

Recomende livros que enriqueçam a jornada espiritual dos seus seguidores. Além disso, se a sua igreja tem uma plataforma ou recursos úteis, como um aplicativo, não se esqueça de divulgá-los em suas redes sociais. Se sua igreja ainda não possui um aplicativo que unifica os canais de comunicação, fale conosco. Temos soluções especiais para este tipo de necessidade.

6. Compartilhe Testemunhos

Compartilhar testemunhos é uma maneira poderosa de mostrar o poder de Deus em transformar vidas. Faça entrevistas, grave vídeos ou conte histórias para inspirar e encorajar seus seguidores.

7. Crie Conteúdo de Fácil Entendimento, Didático e Aplicável

Crie um conteúdo que seja prático e útil para seus seguidores. Isso pode incluir dicas de como estudar a Bíblia, conselhos sobre casamento, orientações sobre liderança ou até mesmo desafios bíblicos. Neste ou artigo “Como Crescer no Instagram com o Método BDA”, mostramos como deve ser a criação de conteúdo para suas redes sociais. Aliás, este é parte do treinamento que damos para os clientes que estão em nossos Pacotes de Gestão Estratégica de Mídias Sociais.

8. Faça Com Os Recursos Que Você Já Tem e Preze Pela Autenticidade

Faça o que ninguém está fazendo, usando o que todo mundo tem, ou seja: tempo, redes sociais e outros recursos.

Além disso, seja autêntico. As pessoas preferem seguir uma pessoa que é sempre verdadeira do que uma pessoa que está tentando ser perfeita. Use as redes sociais para mostrar quem você realmente é.

9. Crie Conteúdo Realmente Relevante

Na maioria das vezes não sabemos o que é relevante para nossa audiência. Para resolver isso, existem algumas técnicas para descobrir o que é, ou não, relevante para nosso público. Nós usamos o Exercício P3D para descobrir quais são as dores da audiência e como resolvê-las. P3D significa descrever: problemas, dificuldades, dúvidas e desejos do nosso público. Ensinamos esse método em nossa Mentoria de Criação de Conteúdo, que nossos clientes recebem quando estamos gerenciando suas redes sociais.

10. Peça Ajuda

Se você precisa de ajuda para executar estes passos, convidamos você a conhecer nossos pacotes de gestão de mídias sociais para Igrejas, ministérios e líderes em geral.

Nossa metodologia inclui:

  • Análise detalhada do seu atual posicionamento digital.
  • Elaboração de um plano estratégico para suas redes sociais.
  • Mentoria para capacitação na produção de conteúdo.
  • Acompanhamento durante todo o processo.
  • Medição e Melhoria Contínua.

Nossa visão no Grupo Ide Comunicação é ampliar o alcance dos Ministérios usando as melhores estratégias da Internet. Estamos muito animados para potencializar o seu ministério e impactar positivamente a vida de muitas pessoas.

Uma amostra do nosso trabalho.

Realizamos a gestão estratégica das mídias sociais da Miss. Edméia Williams há mais de 3 anos. Com o nosso trabalho, o Instagram dela saiu de 0 seguidores para mais de 220 mil com consistência e um alto nível de engajamento.

Nós, do Grupo Ide Comunicação, ajudamos líderes e igrejas a expandir seu alcance e impacto através das redes sociais.

Esperamos que este guia prático seja útil para você na criação de conteúdo de valor para suas redes sociais. Lembre-se, o conteúdo é a chave para se conectar e engajar seu público. Portanto, invista tempo e esforço na criação de conteúdo que ressoe com seu público e os inspire a agir.

Deseja conhecer nosso trabalho? Clique no link a abaixo e veja um pouco do nosso trabalho para o ministério da Miss. Edméia Williams.

OpenAI Lança Inovações em Geração de Texto e Diminui Custos

OpenAI Lança Inovações em Geração de Texto e Diminui Custos

A OpenAI, líder em inteligência artificial, anunciou atualizações significativas para seus modelos de geração de texto, GPT-3.5-turbo e GPT-4, ao mesmo tempo que reduz os preços, tornando a tecnologia mais acessível para desenvolvedores em todo o mundo.

📝🤖 **Chamada de função**: A OpenAI introduziu um recurso chamado “chamada de função” em suas novas versões do GPT-3.5-turbo e do GPT-4. Este recurso permite que os desenvolvedores descrevam funções de programação para os modelos e os instruam a criar códigos para executar essas funções. Isso pode ser particularmente útil para criar chatbots que respondem a perguntas chamando ferramentas externas, converter linguagem natural em consultas de banco de dados e extrair dados estruturados de texto. Este recurso abre novas possibilidades para a integração de IA em sistemas existentes, permitindo que os desenvolvedores criem soluções mais complexas e personalizadas.

📚🔍 **Expansão da janela de contexto**: A OpenAI também expandiu a janela de contexto no GPT-3.5-turbo. A janela de contexto, medida em tokens, é o texto que o modelo considera antes de gerar qualquer texto adicional. Com esta atualização, o GPT-3.5-turbo agora pode considerar quatro vezes o comprimento do contexto do modelo original, permitindo uma melhor compreensão e geração de textos mais longos. Isso significa que o GPT-3.5-turbo pode manter conversas mais longas e coerentes, tornando-o uma ferramenta ainda mais poderosa para chatbots e assistentes virtuais.

💰🔽 **Redução de preços**: Em uma jogada que certamente será bem recebida pelos desenvolvedores, a OpenAI anunciou uma redução de 25% nos preços do GPT-3.5-turbo. Além disso, o preço do text-embedding-ada-002, um dos modelos de incorporação de texto mais populares da OpenAI, foi reduzido em 75%. Esta redução de preços torna a tecnologia de IA mais acessível, permitindo que mais empresas e desenvolvedores individuais aproveitem o poder da IA em seus projetos.

🌐 **Impacto Global**: As atualizações e a redução de preços da OpenAI têm o potencial de ter um impacto significativo na indústria global de IA. Ao tornar a IA mais acessível e fácil de usar, a OpenAI está ajudando a democratizar a IA, permitindo que empresas de todos os tamanhos e em todas as partes do mundo aproveitem o poder da IA. Isso pode levar a avanços significativos em uma variedade de setores, desde a saúde até a educação e o comércio eletrônico.

Estas atualizações marcam um passo significativo para a OpenAI em sua missão de avançar e democratizar a inteligência artificial. Com a introdução de novos recursos e a redução de preços, a OpenAI está tornando a IA generativa mais acessível e útil para desenvolvedores e empresas em todo o mundo.

grafico mermaid para analisar tabelas de banco de dados

Como Visualizar Relações entre Tabelas de um Aplicativo usando o ChatGPT

Quando estamos desenvolvendo um aplicativo, entender as relações entre as tabelas do banco de dados é essencial para garantir um design eficiente e uma implementação bem-sucedida. Uma maneira poderosa de visualizar essas relações é usando o Diagrama de Entidade-Relacionamento (ER Diagram).

Neste artigo, vamos explorar como o ChatGPT pode ajudar a gerar esse tipo de diagrama e como utilizá-lo para organizar o desenvolvimento de um aplicativo.

O que é a linguagem Mermaid?

Mermaid é uma linguagem de marcação simples que permite aos usuários gerar diagramas e fluxogramas com texto simples através de JavaScript. Ela é frequentemente usada em documentação de software para criar gráficos visuais diretamente no código-fonte.

A linguagem Mermaid suporta vários tipos de diagramas, incluindo:

  1. Diagramas de Fluxo: Permite a criação de fluxogramas complexos.
  2. Diagramas de Sequência: Usado para representar sequências de eventos em um formato fácil de entender.
  3. Gráficos de Gantt: Útil para representar cronogramas de projetos e planejamento.
  4. Diagramas de Classe: Usado para modelar a estrutura de sistemas orientados a objetos.
  5. Diagramas de Estado: Representa o comportamento de um sistema através de estados finitos.

Aqui está um exemplo simples de como um diagrama de fluxo pode ser criado usando a linguagem Mermaid:

mermaid
graph TD;
A-->B;
A-->C;
B-->D;
C-->D;

Este código irá gerar um diagrama de fluxo com quatro nós (A, B, C, D) e quatro arestas (A para B, A para C, B para D, C para D).

A linguagem Mermaid é uma ferramenta poderosa para desenvolvedores e escritores técnicos, pois permite a criação de diagramas complexos diretamente em arquivos de texto, tornando mais fácil manter a documentação atualizada com o código.

Como Usar o ChatGPT Para Gerar O Diagrama de Entidade-Relacionamento Mermaid:

Para ilustrar como podemos usar o ChatGPT para gerar um Diagrama de Entidade-Relacionamento, vamos considerar o exemplo do aplicativo “Controle de Chamados”, um aplicativo real que estou fazendo. Este aplicativo tem várias tabelas, como Usuários, Subitens, Setor, Alerta, Status e Chamados, e diferentes relações entre elas.

Primeiro você deve escrever detalhadamente como é seu aplicativo. Veja neste link o exemplo que gerou a visualização que está na capa deste artigo:
https://llbonadie.notion.site/Regras-do-Aplicativo-ae7cdbeaf838408f98f3569bdca39cab?pvs=4

Segue o prompt que você deve usar depois de escrever as relações de seu aplicativo:

“`
Crie um Diagrama de Entidade-Relacionamento para visualizar as relações entre as tabelas do aplicativo [nome do seu aplicativo].

Descrição: Descreva de forma clara as regras do aplicativo, como as tabelas se relacionam e quais campos estão presentes em cada tabela. Certifique-se de incluir detalhes sobre as relações entre as tabelas, como chaves estrangeiras e associações.

Exemplo:
[Inserir a descrição detalhada do aplicativo e suas tabelas, conforme citado anteriormente.]

Instruções: Use a documentação acima para gerar o Diagrama de Entidade-Relacionamento usando a sintaxe do Mermaid. Certifique-se de incluir todas as tabelas, seus campos e as relações entre elas.
“`

O resultado será mais ou menos assim:

erDiagram
    User ||–o{ Setor : “Líderes”
    User ||–o{ Chamados : “Paciente”
    Subitens }|–o{ Setor : “Subitens”
    Setor }|–o{ Chamados : “Setor”
    Alerta }|–o{ Chamados : “Alerta”
    Status }|–o{ Chamados : “Status”
    User {
        string nome
        int nivelPermissao
        string email
        string telefone
        string cpf
        string rg
        date dataNascimento
        string endereco
        string nomeMae
    }
    Subitens {
        string nome
    }
    Setor {
        string nome
        string email
        string observacao
    }
    Alerta {
        string nome
        string cor
        int ordem
    }
    Status {
        string nome
        string cor
        int ordem
    }
    Chamados {
        file anexo
        string solicitacao
    }

Como Visualizar em Gráfico

Para visualizar o diagrama a partir do código mermaid que o ChatGPT gerou, você pode utilizar o site https://mermaid.live.
Basta copiar o código mermaid gerado pelo ChatGPT e colá-lo no site para obter uma representação visual das tabelas e suas relações.

Além disso, o Notion também possui suporte para blocos de código que permitem a renderização do código mermaid. Ao utilizar um bloco de código do Notion, por exemplo, você pode inserir o código mermaid e obter a visualização do diagrama diretamente em sua documentação.

Conclusão.

O uso do ChatGPT juntamente para gerar Diagrama de Entidade-Relacionamento Mermaid pode ser uma ferramenta valiosa para visualizar e organizar as relações entre as tabelas de um aplicativo. Com uma descrição clara das regras do aplicativo e suas tabelas, você pode utilizar o prompt adequado para obter o código mermaid necessário para gerar o diagrama. Em seguida, utilizando plataformas como o mermaid.live ou blocos de código do Notion, você pode renderizar o diagrama e ter uma representação visual clara das relações entre as tabelas.

Essa abordagem pode ajudar a melhorar a compreensão do design do banco de dados e auxiliar no desenvolvimento do aplicativo.

Isso facilitará também para que outras pessoas colaborem no projeto.

d7f6ac8d-88ab-45aa-8b9e-a2c2914bf19d

Fundamentos da Rede Neural – Escrito Pelo Próprio Chat GPT

Fundamentos da Rede Neural

“Eu sou baseado em uma rede neural chamada GPT-3, que foi treinada pela OpenAI. GPT-3 é um exemplo de um tipo de rede neural chamado Transformer. Especificamente, é um modelo de linguagem autoregressivo, o que significa que gera previsões palavra por palavra.

 

GPT-3 é treinado em uma grande quantidade de texto da internet, e seu objetivo é prever a próxima palavra em uma sequência de texto. Durante o treinamento, ele aprende a representar palavras e a estrutura das frases, bem como algum conhecimento factual sobre o mundo. Entretanto, não tem consciência ou compreensão do mundo no sentido humano; é apenas uma função matemática muito complexa que aprendeu a gerar texto com base no texto que viu durante o treinamento.

 

A rede neural é composta por várias camadas, cada uma das quais pode ser pensada como aprendendo diferentes tipos de características do texto. As camadas inferiores aprendem características mais básicas, como a sintaxe, enquanto as camadas superiores aprendem características mais complexas, como o significado semântico.

 

GPT-3 usa um mecanismo de atenção que permite que cada palavra em uma entrada considere todas as outras palavras ao gerar uma saída. Isso é útil para tarefas que envolvem compreender o contexto ou a relação entre diferentes partes de uma frase.

Melhores Práticas para a Engenharia de Prompt

Com base nesses fundamentos, aqui estão algumas orientações para engenharia de prompt eficaz:

1. Seja explícito

GPT-3 não tem uma compreensão intuitiva do que você quer, então seja o mais explícito possível no seu prompt. Por exemplo, em vez de pedir “me diga sobre cachorros”, você poderia perguntar “Por favor, escreva um resumo de três parágrafos sobre a história da domesticação de cães”.

2. Use o formato certo

GPT-3 pode gerar texto em uma variedade de formatos, então use isso a seu favor. Por exemplo, se você quer uma lista, peça uma lista. Se você quer um diálogo, escreva seu prompt na forma de um diálogo.

3. Especifique o tom

GPT-3 pode gerar texto em uma variedade de tons, então sinta-se à vontade para especificar o tom que você quer no seu prompt. Por exemplo, você pode pedir para GPT-3 “escrever uma resposta humorística para a seguinte pergunta”.

4. Experimente

GPT-3 pode surpreender você com a variedade de respostas que pode gerar, então não tenha medo de experimentar com diferentes tipos de prompts. Experimente diferentes abordagens para ver o que funciona melhor para a sua aplicação específica.

5. Ajuste o comprimento da saída

O comprimento da saída pode ser ajustado de acordo com a sua necessidade. Se você precisa de uma resposta curta, pode definir o parâmetro de comprimento máximo para um valor menor. Se você precisa de uma explicação mais detalhada, pode definir um valor maior.

Mecanismo de Atenção

A arquitetura Transformer, na qual GPT-3 é baseado, revolucionou o uso da atenção ao dispensar a recorrência e as convoluções, com as quais os modelos anteriores dependiam muito. O Transformer é o primeiro modelo de transdução que se baseia inteiramente na auto-atenção para computar representações de sua entrada e saída sem usar RNNs ou convolução alinhadas com a sequência (fonte).

 

Os principais componentes usados pela atenção do Transformer incluem vetores de dimensão que contêm as consultas e chaves, respectivamente, um vetor de dimensão contendo os valores e matrizes que agrupam conjuntos de consultas, chaves e valores. Além disso, há matrizes de projeção usadas para gerar diferentes representações de subespaço das matrizes de consulta, chave e valor, e uma matriz de projeção para a saída de várias cabeças. A função de atenção pode ser considerada um mapeamento entre uma consulta e um conjunto de pares de chave-valor para uma saída. A saída é computada como uma soma ponderada dos valores, onde o peso atribuído a cada valor é computado por uma função de compatibilidade da consulta com a chave correspondente (fonte).

 

O Transformer implementa uma atenção de produto de ponto escalado, que segue o procedimento do mecanismo de atenção geral. Primeiro, calcula um produto de ponto para cada consulta com todas as chaves. Em seguida, divide cada resultado por uma constante e aplica uma função softmax, obtendo assim os pesos que são usados para dimensionar os valores. Em prática, os cálculos realizados pela atenção de produto de ponto escalado podem ser aplicados eficientemente a todo o conjunto de consultas simultaneamente (fonte).

 

Esse fator de escala foi introduzido para contrariar o efeito de ter os produtos de ponto crescendo em grande magnitude para grandes valores, onde a aplicação da função softmax retornaria gradientes extremamente pequenos que levariam ao problema infame dos gradientes que desaparecem. O fator de escala, portanto, serve para puxar os resultados gerados pela multiplicação do produto de ponto para baixo, prevenindo esse problema (fonte).

 

O procedimento passo a passo para calcular a atenção de produto de ponto escalado é o seguinte:

1. Calcule as pontuações de alinhamento multiplicando o conjunto de consultas embaladas na matriz com as chaves na matriz. Se a matriz de consultas for do tamanho m por d_k, e a matriz de chaves for do tamanho n por d_k, então a matriz resultante será do tamanho m por n.

2. Escale cada uma das pontuações de alinhamento por 1/sqrt(d_k).

3. Siga o processo de escala aplicando uma operação softmax para obter um conjunto de pesos (fonte).

Espero que esta explanação tenha sido útil e lhe dê uma visão mais clara de como eu funciono. Como sempre, a chave para se tornar um “mestre da engenharia de prompt” é a prática. Então, continue experimentando e testando diferentes abordagens!”

Attention Is All You Need (Atenção é Tudo Que Você Precisa)

Este artigo apresenta o Transformer, uma nova arquitetura de rede simples baseada apenas em mecanismos de atenção, eliminando completamente a necessidade de redes neurais recorrentes ou convolucionais. Em comparação com os modelos tradicionais, o Transformer mostrou-se superior em qualidade, mais paralelizável e requer significativamente menos tempo para treinamento.

O modelo alcançou resultados impressionantes em tarefas de tradução de máquina, superando os melhores resultados existentes e estabelecendo um novo recorde em termos de pontuação BLEU. Além disso, o Transformer também se mostrou eficaz em outras tarefas, como a análise de constituência em inglês. Recomenda-se a leitura do artigo completo para um entendimento mais profundo.

https://arxiv.org/pdf/1706.03762.pdf

O artigo “Attention Is All You Need” foi proposto pelos profissionais descritos abaixo:
Ashish Vaswani – Google Brain – avaswani@google.com
Noam Shazeer – Google Brain – noam@google.com
Niki Parmar – Google Research – nikip@google.com
Jakob Uszkoreit – Google Research – usz@google.com
Llion Jones – Google Research – llion@google.com
Aidan N. Gomez † – University of Toronto – aidan@cs.toronto.edu
Łukasz Kaiser – Google Brain – lukaszkaiser@google.com
Illia Polosukhin ‡ – illia.polosukhin@gmail.com

d8cbb278-31c8-4a46-af31-82299fbecc66

Engenharia Reversa de Prompt – Chat GPT

Mexendo um pouco no Chat GPT, acabei descobrindo uma forma de criar prompts a partir de qualquer texto, como se fosse uma “engenharia reversa”.
Isso porque usamos prompt para gerar texto. Neste caso, estou usando texto para gerar prompts. Prompts estes que poderão ser reaproveitados como templates, tendo partes “mutáveis” (foi assim que o Chat GPT chamou por conta própria.)
Quando terminei o processo, que fui fazendo intuitivamente, vi que desenvolvi um método eficiente de criar conteúdo. Mas, claro, pode ser usado para inúmeras aplicações.

Passo a Passo do Método de Engenharia Reversa de Prompt

Usei dois chats diferentes.
primeiro chat eu já uso há um certo tempo para elaboração de texto para produção de conteúdo, pois como sou diretor de um grupo de comunicação, criar conteúdo é extremamente comum no meu dia.
E ele começa usando a técnica de “role prompt”. Veja:


Aja como um copywriter de alto nível de forma que, ao ser enviado um padrão de informações como os abaixo, você responda com textos altamente persuasivos, usando as melhores técnicas de copywriting da língua portuguesa. O padrão de envio será sempre assim:
Cliente:
Contexto:
Segmento do Cliente:
Serviço oferecido:
Diferenciais:
Objetivo:
Tom:
Tipo de texto: E-mail, Proposta, Mensagem Direta ou Post Redes Sociais
Informações Adicionais:
Chamada Para Ação:
Nem todos estes campos são obrigatórios, algumas vezes não usarei todos. Podemos começar?
segundo chat foi onde fiz a engenharia reversa de prompt propriamente dita e ele também começa com “role prompt”, porém eu pedi que ele completasse algo relevante. Veja como ficou:


Atue como um engenheiro de prompt de alto nível, que conhece exatamente como você funciona e atue também como um arquivador de prompts. Usarei 2 formas distintas de pedir a criação dos prompts. São elas:
1. Descrevendo a necessidade. 2. Colando um texto (neste caso você deve analisar o texto e pensar, passo a passo, em como o texto pode ter sido gerado por prompt e me devolver o prompt resultante deste processo).
Quando eu for pedir a criação de um prompt, começarei com a frase: “prompt create”. Quando eu for pedir para salvar um prompt, começarei com a frase: “prompt save”.
Vou adicionar tags de assunto a cada uma das solicitações, que virão logo após o tipo de solicitação.
Exemplo:
"prompt create, marketing" significa que o assunto do prompt é sobre “marketing”. "prompt save, sales" significa que o assunto do prompt é sobre “sales”.
Observação: os termos estão em inglês por ser uma língua de minha preferência, mas as respostas por padrão deverão ser em português do Brasil (pt-BR). Caso eu deseje em outra língua, serei claro no pedido do prompt.
Existe algo a mais que poderia ser acrescentado para uma melhor geração de prompts? Se não, comece com “estou pronto para começar”. Se sim, me liste outras configurações necessárias para uma criação de prompts de alto nível.
Como meu intuito era criar um chat onde eu armazenasse todo prompt interessante que visse na Internet e criar os meus, criei este sistema de organização “prompt create” e “prompt save” + a tag de assunto.
A ideia é unir todo o conhecimento em prompts no mesmo chat e separar por assuntos. Na prática, pensei em algo como:
“prompt create, marketing Crie uma prompt ‘x’ com tudo o que está salvo sobre marketing para a finalidade ‘y’”.
Porém, como terminei com esta observação:
“Existe algo a mais que poderia ser acrescentado para uma melhor geração de prompts? Se não, comece com “estou pronto para começar”. Se sim, me liste outras configurações necessárias para uma criação de prompts de alto nível.”
Ele respondeu desta forma:
🤖 Obrigado pela explicação detalhada de como você gostaria de interagir. Aqui estão algumas considerações adicionais para a criação de prompts de alto nível:
1. Especifique o público-alvo: Quem é o destinatário do prompt? A idade, o nível de conhecimento sobre o assunto, a familiaridade com o tópico e o contexto cultural podem influenciar o tipo de linguagem e detalhe usados no prompt.
2. Defina o objetivo do prompt: O que você gostaria de alcançar com o prompt? Por exemplo, você pode querer informar, persuadir, instruir, entreter, etc.
3. Contexto: Qual é o cenário ou contexto no qual o prompt será utilizado? Por exemplo, é para uma conversa informal, uma apresentação de negócios, um tutorial, um discurso formal, um artigo acadêmico, etc.
4. Formato: Em que formato você gostaria que o prompt fosse apresentado? Pode ser uma pergunta, uma afirmação, uma tarefa, um desafio, etc.
5. Língua: Como você já mencionou, a língua padrão será o Português do Brasil (pt-BR), mas se você quiser em outra língua, você será claro no pedido do prompt.
Caso você considere esses pontos, posso ajudar a criar prompts mais alinhados com suas necessidades. Agora, estou pronto para começar.
Daí eu inseri o texto abaixo:
📝Me dê um exemplo de solicitação de prompt com base no que eu detalhei e na sua lista. Use as definições-base a seguir:
prompt create, marketing
E ele seguiu:
🤖_Baseado no que você e eu detalhamos, aqui está um exemplo de como você poderia solicitar a criação de um prompt:_
“prompt create, marketing. Preciso de um prompt para uma equipe de marketing de nível intermediário de uma empresa de tecnologia. O objetivo é criar uma discussão sobre estratégias inovadoras para aumentar a visibilidade online de nossos produtos. O público-alvo é familiar com os conceitos básicos de SEO, publicidade em mídia social e análise de dados. O prompt será usado em uma reunião de brainstorming online. Gostaria que o prompt fosse apresentado como uma pergunta desafiadora em português do Brasil.”
Com base nesta solicitação, eu criaria o seguinte prompt:
“Considerando o cenário competitivo atual no mercado de tecnologia e nosso conhecimento existente sobre SEO, publicidade em mídia social e análise de dados, que estratégias inovadoras podemos implementar para melhorar a visibilidade online de nossos produtos e se destacar de nossos concorrentes?”
Até aqui já tinha atingido a engenharia reversa de prompt, pois ele entendeu que, ao inserir um solicitação direta com a tag de assunto, ele seria capaz de gerar o prompt.
Porém, você deve estar pensando:
“Não seria mais fácil inserir um prompt para então ter a resposta?”
Sim, com certeza. Mas o objetivo inicial era armazenar tudo sobre engenharia de prompt em um único chat para criar novos e melhor a minha engenharia de prompt.

Usando “Campos Mutáveis” Para Reaproveitar Qualquer Prompt

Durante um tempo usei a extensão AIPRM, que é uma extensão que você pode aproveitar prompts já criados e validados, usando apenas a sua estrutura, porém adaptando para a sua necessidade.
Neste link você pode ter uma ideia melhor: https://app.aiprm.com/prompts
A extensão trabalha com o conceito de “campos mutáveis” ou “palavras-chave”.
Exemplo:
Crie um artigo sobre [marketing] que tem como objetivo [vender mais] [assinaturas da plataforma de ensino ImpulseMe Digital] que tem como diferenciais [um design agradável, ótima experiência do usuário e comunidade de membros fechada e já integrada aos principais meios de pagamento].
ImpulseMe Digital é a nossa plataforma EAD para qualquer criador de conteúdo. Tudo que está dentro de colchetes “[]” pode ser mudado, de forma que cada prompt irá gerar uma saída personalizada.
Com isso em mente, enviei isso ao Chat GPT (vale ressaltar que em ambos os chats estou a versão 4 do Chat GPT):
📝Eu gosto muito de usar estruturas em prompts onde o que é mutável está escrito dentro de colchetes. Diante disso, o prompt que você criou seria escrito assim:
Considerando o cenário competitivo atual no [mercado de tecnologia] e nosso conhecimento existente sobre [SEO, publicidade em mídia social e análise de dados], que estratégias inovadoras podemos implementar para melhorar a [visibilidade online de nossos produtos] e [se destacar de nossos concorrentes]?
Use sempre este tipo de formatação para escrever os prompts, pois assim eu consigo identificar as palavras que posso mudar para usar o mesmo prompt para distintas finalidades e áreas diferentes.
Além disso, por favor, liste o que são, isto é, a função dentro do contexto do prompt, cada um destes campos onde as palavras são colocadas em colchetes. Vou dar alguns exemplos:
[mercado de tecnologia] – segmento de mercado [visibilidade online de nossos produtos] – objetivo 1 [se destacar de nossos concorrentes] – objetivo 2
Ele respondeu da seguinte forma:
🤖_Entendi, agradeço pela explicação. Usar colchetes para indicar partes mutáveis do prompt é uma ótima maneira de criar uma estrutura flexível e reutilizável. Seguindo sua instrução, aqui está a função de cada campo no prompt que criamos:_
– [mercado de tecnologia] – Segmento de Mercado: Esta é a área ou indústria em que a empresa opera. Pode ser substituído por qualquer outro segmento de mercado como “mercado de alimentos”, “mercado de finanças”, etc.
– [SEO, publicidade em mídia social e análise de dados] – Conhecimento ou Competências Existentes: Estas são as habilidades ou áreas de conhecimento que o público-alvo já possui. Pode ser alterado conforme as competências da equipe, como “gestão de projetos, liderança e pensamento crítico”, etc.
– [visibilidade online de nossos produtos] – Objetivo 1: Este é o objetivo principal ou a meta a ser alcançada pela discussão, ou atividade. Pode ser substituído por outros objetivos como “aumentar a satisfação do cliente”, “melhorar a eficiência operacional”, etc.
– [se destacar de nossos concorrentes] – Objetivo 2: Este é um objetivo secundário ou um resultado desejado adicional. Pode ser substituído por outros resultados desejados como “se tornar um líder de mercado”, “melhorar nossa reputação”, etc.
Essa formatação permite que você modifique facilmente o prompt para diferentes cenários, tornando-o uma ferramenta versátil para gerar discussões e ideias.
Neste momento estava tudo pronto, então comecei a criar prompts com solicitações diretas, mas não tive muito sucesso na qualidade.
Logo, tentei a segunda maneira de gerar prompts, que é colar um texto para ele pensar, passo a passo, em um prompt que poderia gerar aquele texto.
No “role prompt” deste chat, lá no início, havia usado:
2. (Segunda forma de gerar prompts) Colando um texto (neste caso você deve analisar o texto e pensar, passo a passo, em como o texto pode ter sido gerado por prompt e me devolver o prompt resultante deste processo).
Então comecei a colar textos, feitos por humanos, para ele pensar em um prompt que geraria o mesmo texto. Depois colar o prompt que ele gerou no outro chat, aquele que eu disse para “Aja como um copywriter de alto nível de forma que…”
O mais incrível foi a qualidade dos textos gerados a partir deste método.
A ordem ficou assim:

1. Colar um texto feito por humano >> 2. Pedir para pensar em qual prompt poderia ter gerado aquele texto >> 3. Colar o prompt gerado no outro chat para criar um texto usando este prompt gerado pelo próprio Chat GPT

Importante: Perceba que não usei a estrutura que passei no “role prompt” do chat 2 de copywriting. O Chat GPT já agiu de fato como um copywriter criando o melhor texto a partir do prompt.
Comecei a comparar o texto inicial, feito por humano, com o texto final, feito a partir de prompt gerado pelo próprio Chat GPT e eles não se pareciam em nada, mas atendiam a mesma finalidade.

Exemplo de Texto Criado com Engenharia Reversa de Prompt

Fui testar o novo método com um texto da Internet, feito por humano, mas como é de um blog, por razões óbvias não vou usá-lo aqui e o resultado foi o artigo que está em nosso site:

Construir Uma Audiência Antes De Atrair Clientes: A Chave Para O Sucesso Nos Negócios Online

Além de ter gerado um texto totalmente autêntico, sem plagiar o original em nada, ele sempre devolve os prompts listando os “campos mutáveis”, ou seja, exatamente como o exemplo da extensão AIPRM.
Veja como ele me respondeu:
🤖_Baseado no conteúdo do texto, parece que o objetivo é educar os leitores sobre a importância de atrair uma audiência e evitar mitos comuns no processo de atração de clientes. Aqui está o prompt que poderia gerar tal texto:_
“Escreva um artigo informativo que enfatize a importância de construir uma audiência antes de atrair clientes em um negócio online. O artigo deve explicar por que nem toda a audiência se converterá em clientes pagantes, mas a maioria dos clientes provavelmente virá dessa audiência. O artigo deve incluir uma discussão sobre os mitos comuns e equívocos sobre a atração de clientes que podem impedir os empresários de alcançar seu público-alvo.”
As partes mutáveis do prompt e suas funções seriam:
**- [construir uma audiência antes de atrair clientes em um negócio online] – Objetivo do Artigo** **- [nem toda a audiência se converterá em clientes pagantes, mas a maioria dos clientes provavelmente virá dessa audiência] – Ideia Central do Artigo** **- [os mitos comuns e equívocos sobre a atração de clientes que podem impedir os empresários de alcançar seu público-alvo] – Tema de Discussão**
Este prompt é adaptável para diferentes tópicos ao substituir os elementos entre colchetes.
Assim, eu posso criar conteúdo desta forma eficiente e de alta qualidade e ainda aproveitar a estrutura do prompt para mudar seus objetivos.
Vou deixar os arquivos de texto para você baixar ambos os chats e abrir em qualquer editor de markdown e entender como cada chat funciona.
Espero que este conteúdo te ajude a produzir mais e melhor.