Quem deve responder pelos erros médicos da Inteligência Artificial?

Avanço da tecnologia desafia médicos, juristas e autoridades sanitárias e esquenta debate sobre a culpa de quando a IA falha no cuidado com a saúde – A promessa de que a inteligência artificial (IA) pode revolucionar a medicina é cada vez mais presente nas clínicas, hospitais e nos bastidores da indústria da saúde. De diagnósticos rápidos à análise de exames complexos, o uso de modelos de linguagem e algoritmos inteligentes desperta otimismo. Mas a mesma velocidade com que essas ferramentas estão sendo adotadas acende alertas — inclusive entre especialistas da área jurídica. Um dos principais questionamentos: quem é o responsável se a IA errar e o paciente for prejudicado?
Nesta semana, a Organização Mundial da Saúde (OMS) publicou um comunicado oficial pedindo “cautela” no uso da inteligência artificial no setor. A entidade enfatiza a necessidade de proteger a autonomia humana, a segurança e o bem-estar dos pacientes, além de chamar atenção para riscos como a tendência dos dados, a geração de informações incorretas e a possibilidade de desinformação generalizada. “A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA”, destaca o documento.
A OMS observa que modelos de linguagem como o ChatGPT estão sendo utilizados de forma experimental em ambientes médicos, muitas vezes sem a devida validação clínica. A instituição se diz preocupada com o fato de esses sistemas serem tratados com uma confiança desproporcional à sua comprovação científica.
Do ponto de vista legal, o uso da IA na medicina impõe desafios ainda pouco regulados. Afinal, se uma inteligência artificial indicar um diagnóstico equivocado ou recomendar um tratamento incorreto, quem deve ser responsabilizado? O médico que seguiu a recomendação da IA? A empresa que desenvolveu o sistema? O hospital que o contratou?
Segundo o advogado Thayan Fernando Ferreira, especialista em direito de saúde e direito público, membro da comissão de direito médico da OAB-MG e diretor do escritório Ferreira Cruz Advogados, é essencial entender que, juridicamente, a IA ainda é um instrumento, e não um sujeito de direito. “A responsabilidade, em caso de erro, continua recaindo sobre os profissionais da saúde, já que são eles os detentores do dever técnico e da autonomia de decisão. A inteligência artificial pode ser usada como ferramenta de apoio, mas nunca como substituta da análise humana”, explica.
O Código de Ética Médica brasileiro reforça essa ideia ao afirmar que o médico não pode transferir a terceiros, humanos ou não, a responsabilidade sobre suas decisões clínicas. Já o Código de Defesa do Consumidor (CDC) pode ser aplicado, por analogia, nos casos em que a falha na prestação do serviço envolva defeitos no software, o que envolveria também os fornecedores da tecnologia. “O artigo 14 do CDC trata da responsabilidade objetiva do prestador de serviço. Isso significa que, havendo falha na prestação, não é necessário provar culpa, basta comprovar o dano e o nexo com a conduta”, afirma o advogado.
Todavia, enquanto o setor se movimenta entre o encantamento e o receio, o debate permanece aberto. “A IA pode ser uma aliada importante, mas precisa ser usada com rigor científico, responsabilidade ética e segurança jurídica. O entusiasmo não pode atropelar o cuidado”, reforça Thayan.

Foto: Thayan Fernando Ferreira, especialista em direito de saúde e direito público, membro da comissão de direito médico da OAB-MG e diretor do escritório Ferreira Cruz Advogados

Compartilhe

Assine nossa newsletter