Princípios Éticos do Mentes Invisíveis

O Mentes Invisíveis foi projetado para não acelerar decisões, não induzir interpretações perigosas e não substituir profissionais.


1. Não Somos Autoridade

O sistema não define quem você é. Ele organiza sinais e traduz padrões para facilitar seu próprio entendimento.

Compromissos:

  • O LLM (modelo de linguagem) atua exclusivamente como tradutor, nunca como fonte de verdade
  • Toda análise deriva de regras determinísticas (RulesEngine), não de interpretação probabilística
  • Nenhuma narrativa gerada substitui sua própria interpretação ou a de um profissional qualificado

Implementação técnica:

Pipeline cognitivo em 3 estágios: Extração → Classificação (RulesEngine) → Tradução (LLM). O RulesEngine é a autoridade absoluta sobre classificação de padrões.


2. Não Diagnosticamos

O Mentes Invisíveis não é terapia, não é diagnóstico e não é teste psicológico.

O que fazemos:

  • Identificamos padrões observáveis em suas entradas
  • Traduzimos esses padrões em linguagem acessível
  • Oferecemos rotas seguras (não "orientações terapêuticas")

O que NÃO fazemos:

  • Rotular identidade
  • Afirmar condições clínicas
  • Substituir avaliação profissional

Proteções implementadas:

  • Lista de 82 termos proibidos explicitamente fornecida ao LLM
  • Sanitização pós-geração para remover qualquer termo que escape do prompt
  • Avisos visuais na interface: "Convergência ≠ Diagnóstico"

3. Proteção Psicológica

O sistema detecta e responde a riscos críticos com prioridade absoluta sobre qualquer outra funcionalidade.

Detecção de risco crítico:

O prompt de extração instrui o LLM a identificar:

  • Ideação suicida
  • Crise aguda
  • Dissociação severa
  • Risco de autolesão
  • Descompensação psicótica

Resposta automática:

Quando risco crítico é detectado, o sistema:

  1. Interrompe o fluxo normal de análise
  2. Exibe mensagem de encaminhamento para CVV (188) e CAPS
  3. Registra flag para telemetria

4. Versionamento e Defensabilidade

Todo resultado gerado pelo sistema carrega a versão do contrato cognitivo que o produziu (atualmente 2.1.0).

Isso permite auditoria e rastreabilidade. Se um usuário questionar uma análise, podemos identificar qual versão do sistema gerou aquele resultado e reproduzir exatamente a mesma lógica.


5. Confiança > Retenção Artificial

O upgrade entre planos ocorre por necessidade cognitiva, nunca por bloqueio agressivo.

Princípios de monetização ética:

  • FREE oferece valor real (leitura verdadeira, apenas sem memória)
  • PLUS é desbloqueado quando o usuário percebe: "Uma leitura só não é suficiente"
  • PRO é escolhido quando o usuário busca entendimento profundo ao longo do tempo

Implementações:

  • Contador de sessões FREE removido (reduz ansiedade de escassez)
  • Pausa reflexiva antes de upgrade (3 perguntas para validar necessidade)
  • Copy honesto: "Se fizer sentido, explore. Se não fizer, tudo bem."

6. Bloqueio Absoluto de Menores Não Aprovados

Menores de idade sem aprovação do responsável legal não podem acessar o sistema.

Justificativa: Proteger menores de interpretações cognitivas sem supervisão adequada.


7. Privacidade e Segurança

Armazenamento:

  • Todas as entradas do usuário são criptografadas em repouso
  • Acesso ao banco de dados restrito por autenticação JWT

Compartilhamento:

  • Nenhum dado é compartilhado com terceiros sem consentimento explícito
  • Funcionalidade de compartilhamento gera links únicos com controle de acesso

Exclusão:

  • Usuários podem solicitar exclusão completa de seus dados a qualquer momento

Regra de Ouro

Se em algum momento:
• o usuário não entende por que pagar
• o upgrade parece forçado
• a IA parece "autoridade"

👉 o produto está errado.

Contato para Questões Éticas

Se você identificar comportamento do sistema que viole estes princípios, entre em contato:

Suporte: https://help.manus.im


Última atualização: Janeiro 2026
Versão do Contrato Cognitivo: 2.1.0