Startup de IA para detecção de depressão encerra atividades após falha na aprovação pela FDA

Após sete anos de desenvolvimento, a startup californiana Kintsugi anunciou o encerramento de suas operações devido à impossibilidade de obter a aprovação da Food and Drug Administration (FDA) dos Estados Unidos para sua tecnologia de inteligência artificial (IA) voltada à detecção de sinais de depressão e ansiedade por meio da análise da fala.
Como funcionava a tecnologia da Kintsugi
Diferentemente dos métodos tradicionais de avaliação em saúde mental, que dependem principalmente de questionários e entrevistas clínicas, a solução da Kintsugi analisava como as pessoas falavam, não apenas o conteúdo do que diziam. Elementos como pausas, estrutura das frases e velocidade do discurso, conhecidos por indicarem condições como depressão, eram interpretados pela IA para identificar mudanças sutis que poderiam passar despercebidas por observadores humanos.

Segundo estudos revisados por pares publicados pela empresa, os resultados da tecnologia eram comparáveis às ferramentas tradicionais de triagem, como o Patient Health Questionnaire-9 (PHQ-9), amplamente utilizado em cuidados primários e psiquiatria.
Desafios regulatórios e impactos práticos
Para que a solução fosse adotada em larga escala, era necessária a aprovação da FDA via o processo "De Novo", destinado a dispositivos médicos inovadores e de baixo risco sem equivalentes no mercado. No entanto, a agência reguladora americana não possui uma estrutura ideal para produtos baseados em IA, que demandam atualizações contínuas e otimizações, ao contrário dos dispositivos médicos tradicionais, cujo design é fixo após aprovação.
Além disso, o processo de aprovação foi atrasado por paralisações do governo federal, o que estendeu o tempo de revisão e consumiu os recursos financeiros da startup. Tentativas de captar fundos adicionais não foram suficientes, e a empresa recusou propostas consideradas predatórias, preferindo encerrar as operações.
Abertura do código e riscos associados
Com a decisão de fechar, a Kintsugi liberou a maior parte da sua tecnologia como open source, permitindo que outras organizações possam dar sequência ao desenvolvimento. Contudo, especialistas alertam para os riscos de uso indevido, já que ferramentas capazes de detectar sinais de depressão ou ansiedade poderiam ser aplicadas fora do ambiente clínico, como por empregadores ou seguradoras, sem as proteções adequadas.
Além disso, a ausência de documentação detalhada sobre o treinamento e validação dos modelos, comum em projetos open source, pode dificultar futuras tentativas de aprovação regulatória.
Legado e tecnologias complementares
Nem toda a tecnologia da Kintsugi foi liberada. A startup manteve sob sigilo ferramentas desenvolvidas para detectar vozes sintéticas e deepfakes, uma área que ganhou relevância diante do aumento de fraudes por áudio gerado por IA. Esse segmento, por não estar sujeito à regulamentação da FDA, pode ter um futuro comercial mais promissor.
A fundadora e CEO, Grace Chang, expressou o desejo de que outras equipes possam aproveitar o trabalho realizado e superar as barreiras regulatórias, ressaltando que o maior risco atualmente é a subutilização da tecnologia, não seu uso indevido.
O caso da Kintsugi evidencia as dificuldades enfrentadas por startups que desenvolvem soluções inovadoras baseadas em IA para a área da saúde, especialmente diante da rigidez dos processos regulatórios. Sem adaptações que considerem as particularidades da inteligência artificial, é provável que outros projetos semelhantes também enfrentem obstáculos semelhantes.