REVISTA DOS TRIBUNAIS

Culpa médica e deveres de conduta na Inteligência Artificial

Culpa médica e deveres de conduta na Inteligência Artificial

inteligência artificial na medicina

por Rafaella Nogaroli

Recentemente, defendemos a tese, sob orientação do prof. Paulo Nalin, no Programa de Pós-Graduação em Direito da Universidade Federal do Paraná, a qual resultou na recém-lançada obra intitulada “Responsabilidade Civil Médica e Inteligência Artificial: culpa médica e deveres de conduta no século XXI”, lançamento deste mês de agosto da Livraria RT. 

Nessas breves reflexões, tem-se o intuito de apresentar um panorama geral do que defendemos na referida obra – vide tabela abaixo – sobre as interseções dos princípios éticos da IA na Medicina com os deveres de conduta médica decorrentes da boa-fé objetiva contratual, ressignificados na perspectiva da Pós-Constitucionalização do Direito Civil e na Medicina Centrada na Pessoa. Para tanto, apresentaremos 4 cenários para reflexão sobre culpa médica e deveres de conduta quando o diagnóstico ou proposta de tratamento envolve um sistema decisional automatizado.

 

PRINCÍPIOS ÉTICOS DA IA NA MEDICINA DEVERES DE CONDUTA DO MÉDICO
Proteger a autonomia humana DEVER DE ESCLARECIMENTO  – Dever de informação, esclarecimento e conselho

– Dever de documentação, sigilo / confidencialidade

Garantir a transparência, explicabilidade e inteligibilidade
Promover uma IA que seja responsiva e sustentável DEVER DE LEALDADE – Dever de cooperação e lealdade
Garantir inclusão e equidade  – Dever de abstenção de abuso ou desvio do poder
Fomentar a responsabilidade e prestação de contas DEVER DE PROTEÇÃO – Dever de cuidado e de vigilância 
Promover o bem-estar humano, segurança e interesse público – Dever de atualização
Tabela por nós criada na obra “Responsabilidade Civil Médica e Inteligência Artificial: culpa médica e deveres de conduta no século XXI”.

No primeiro quartel do séc. XXI, algoritmos de IA têm proporcionado uma mudança de paradigma para o modelo de cuidados de saúde. Não substituirá os médicos, mas definitivamente todo o arsenal tecnológico impulsionado pela Era da Medicina Digital tem transformado – e transformará ainda mais – a relação médico-paciente e a maneira como os sistemas de saúde funcionam, especialmente pela possibilidade de o atendimento médico seguir um modelo mais proativo, preventivo, preciso e centrado na individualidade de cada paciente.

Sistemas decisionais automatizados têm um imenso potencial de melhorar a experiência dos pacientes nos seus cuidados de saúde, proporcionando diagnósticos, prognósticos e propostas de tratamento com maior rapidez, precisão e eficácia. Por outro lado, surgem novos desafios para o setor da saúde, sobretudo pelos riscos de algoritmos imprecisos, discriminatórios, mal utilizados e com processos decisórios obscuros. Atualmente, ao redor do mundo, não se tem notícia de jurisprudência sobre responsabilidade civil médica envolvendo um sistema de IA. Todavia, há uma tendência de que surjam litígios, tendo em vista a maior frequência, nas últimas décadas, de utilização de sistemas autônomos para apoiar decisões clínicas.

Cenário 1 – culpa médica: em 2018, noticiou-se o problema de que o denominado “Watson for Oncology”, sistema decisional automatizado da IBM para apoiar diagnósticos e propostas de tratamento de pacientes oncológicos, estava indicando tratamentos flagrantemente incorretos. Em certa ocasião, o sistema de IA sugeriu o uso de um determinado medicamento quimioterápico para um paciente com câncer de pulmão e com histórico de sangramento grave.  A questão é que há um efeito colateral bastante conhecido pela comunidade médica no fármaco indicado que é justamente a possibilidade de causar sangramento, razão pela qual ele é utilizado apenas em alguns pacientes com essa patologia. Trata-se de situação na qual, sobrevindo a morte do enfermo após o tratamento inapropriado, a aferição da culpa médica se torna, de certa forma, menos complexa, pois o profissional age em evidente falta de diligência (erro grosseiro), caso siga a proposta de tratamento bastante fora do padrão trazido pela IA.

Por outro lado, imagine-se a situação na qual o médico insere os dados de um paciente no sistema de IA, o qual apresenta uma proposta de tratamento com outro remédio quimioterápico, que é bastante fora do padrão (apesar de correto) do que o médico está acostumado a recomendar, ao longo de muitos anos de sua prática clínica. Em seguida, o profissional ignora o resultado algorítmico, seguindo sua própria convicção de que o caso clínico do paciente se enquadra naquele padrão de tratamento, sobrevindo, assim, danos ao enfermo. Deve o médico ser responsabilizado?

Nessa hipótese, em princípio, pode-se concluir que o médico não será responsabilizado, caso tenha sido diligente na anamnese e solicitação de exames, reconhecendo como apropriado um tratamento que é o padrão para o quadro clínico do enfermo. Todavia, frise-se que os estudos científicos evoluem, e pode ser verificado que um determinado medicamento que vinha sendo usado por médicos para tratar determinada doença não é mais adequado, sendo muito mais benéfico para o paciente um novo medicamento. Justamente por isso que poderíamos defender que, diante do tratamento fora do padrão proposto pela IA, o profissional tem que ao menos ser diligente ao ponto de investigar se não é necessário repensar a forma de tratamento compreendida por ele como a correta para o paciente, sob pena de ser responsabilizado. 

Nicholson Price, grande estudioso sobre as intersecções entre o Direito Médico e a Inteligência Artificial, afirma que, em tese, o médico, caso não seja diligente na utilização da IA, pode ser responsabilizado.  No mesmo sentido, Fruzsina Molnár-Gábor defende que, se os médicos reconhecerem, com base em suas expertises, que as informações fornecidas pela IA estão incorretas naquele caso específico, não devem considerá-las como base para sua decisão. Assim, seguindo nessa mesma linha de pensamento, concluímos que, para verificar se um médico agiu culposamente em um caso específico, devem ser analisados os padrões de conduta profissional exigidos no momento da atuação médica.  

O médico, diante do resultado diagnóstico ou prognóstico trazido pelo algoritmo de IA, estará na complexa posição de justificar: (i) porque ele seguiu o diagnóstico ou tratamento sugerido pela IA; ou (ii) porque – e com base em quais fatores – ele se desviou da recomendação algorítmica. O médico é livre para escolher seus meios de diagnóstico e propostas de terapia, mas também é responsável por suas escolhas. De todo modo, há uma premissa básica na avaliação da culpa médica, que será sempre uma constante na análise jurídica dos eventos adversos ocorridos por ato essencialmente médico: a álea terapêutica, os fatores aleatórios da prática da Medicina tornam impossível impor ao médico uma obrigação de infalibilidade ou absoluta exatidão.

Além disso, defendemos que, ao longo dos próximos anos, à medida que essas ferramentas baseadas em IA forem se tornando comuns no dia a dia da prática clínica, mais se exigirá do médico que utilize de todo o arsenal tecnológico disponível, a fim de cumprir com seu dever de diligência nos cuidados da saúde. Pela aplicação da Teoria da Alteração das Circunstâncias no contexto sanitário, muito em breve o padrão de diligência do médico, para fins de aferir a culpa profissional, será substancialmente modificado. 

Assim como hoje um médico diligente usa com sabedoria um estetoscópio como instrumento para ouvir o coração e os pulmões de um paciente, vai chegar um momento na história da Medicina na qual o padrão de diligência mínima exigida para um médico fazer um diagnóstico clínico será aferido com base na constatação do profissional ter ou não utilizado (com sabedoria) um sistema de IA para apoiar a sua decisão. 

Cenário 2 – violação do dever de esclarecimento: frequentemente, tem-se levantado a preocupação de que à medida que algoritmos de IA começam a se infiltrar nos ambientes de assistência médica, há um aumento no que é conhecido como “paternalismo da IA” (AI Paternalism). A propósito, em 2020, noticiou-se que milhares de pacientes hospitalizados em uma das maiores entidades hospitalares de Minnesota, nos Estados Unidos, tiveram suas decisões de planejamento de alta médica apoiadas em um sistema de Inteligência Artificial; todavia, nenhum destes enfermos teve sequer ciência sobre o envolvimento da tecnologia para apoiar a decisão dos profissionais da Medicina. Trata-se da denominada “opacidade algorítmica pela não revelação”, que não diz respeito às características intrínsecas dos sistemas de IA, mas parte da ideia dos riscos à autodeterminação informativa do paciente.

Eric Topol destaca a importância de “colocar os valores e preferências do paciente em primeiro lugar em qualquer colaboração homem-máquina”, a fim de que o implemento de tecnologias na prática clínica não propague o paternalismo médico, mas, ao contrário, a “IA represente um ganho de tempo para o médico estar em contato com o paciente”. 

Em que pese existir divergência doutrinária sobre a quantidade da informação que deve ser repassada ao paciente para que o médico cumpra com o seu dever de informação, entendemos que, há atualmente a exigência de nova interpretação ao princípio da autodeterminação do paciente: saímos do simples direito à informação e caminhamos para uma maior amplitude informacional, ou seja, há um direito à explicação e justificação. Nesse sentido, além do dever que o médico possui de informar que, por exemplo, utilizou um algoritmo de IA para apoiar a sua avaliação de determinado quadro clínico, ele precisa também explicar o funcionamento da tecnologia utilizada, de acordo com o grau de compreensão de cada paciente, sob pena de ocorrer a chamada “opacidade explicativa”. 

Em conclusão, observa-se que o dever de conduta médica de informação, esclarecimento e conselho, decorrente da boa-fé objetiva contratual, está intimamente relacionado com dois princípios éticos próprios da IA: i) proteger a autonomia humana, e ii) garantir a transparência, explicabilidade e inteligibilidade. Importante a ressalva de que a ressignificação do direito à informação do paciente, nos moldes apresentados, engloba uma espécie de “padrão ouro no tratamento”, razão pela qual deve se considerar as peculiaridades da situação concreta para aferir a possibilidade de exigir do médico determinada conduta diante de eventual condição precária de trabalho ou, ainda, outras questões relacionadas à própria estrutura da entidade hospitalar onde ocorreu o atendimento.

Cenário 3 – violação do dever de lealdade: tem sido muito discutida a problemática em torno da falta de educação e treinamento contínuo dos médicos com a utilização de novas tecnologias, somando-se ao fato de que nem sempre o emprego da IA é recomendado. Em paralelo, há o risco de os profissionais, fascinados pelos sistemas decisionais automatizados, confiarem “cegamente” nas predições algorítmicas e assegurarem ao paciente que determinada ferramenta tecnológica é extremamente precisa ou até infalível e ao enfermo será praticamente garantido um certo resultado. Por exemplo, logo que os robôs da Vinci foram inseridos no mercado de consumo norte-americano, em 2000, havia uma propaganda maciça das cirurgias assistidas por robôs e os médicos passavam implícita ou explicitamente a garantia de sucesso, especialmente em cirurgias oncológicas de extirpação da próstata, devido ao emprego da plataforma robótica.

Pode-se imaginar o risco de que a mesma situação ocorra com algum sistema decisional automatizado, para fins de diagnóstico, prognóstico ou proposta de tratamento médico. Então, questiona-se: qual seria o reflexo na forma de aferição da culpa médica por eventos adversos neste cenário? A obrigação médica continua sendo de meios?

Observa-se aqui a importância do debate sobre o princípio ético da promoção de uma IA que seja responsiva e sustentável, com o correlato dever do médico de cooperação e lealdade, decorrente da boa-fé objetiva contratual.  O profissional da Medicina, seguindo parâmetros de lisura e honestidade, tem o dever de respeitar as legítimas expectativas do paciente. 

Caso o profissional não compreenda as limitações do sistema de IA (opacidade epistêmica), utilizando como um fim em si mesmo – não como uma ferramenta – e, mais do que isso, repasse a garantia de total sucesso ao paciente justamente por utilizar a tecnologia, poderíamos cogitar o seguinte: a possibilidade de qualificar a obrigação médica como sendo de resultado, baseando-se na promessa de infalibilidade do recurso tecnológico empregado no procedimento. Ou seja, quando o profissional não compreende a IA como uma ferramenta de apoio à tomada de decisão (AI-as-a-tool), trazendo a tecnologia como garantia de sucesso na atuação médica, há uma quebra da confiança e legítima expectativa do paciente e, assim, a possível qualificação da natureza jurídica obrigacional em obrigação de resultado. Nesse sentido, recairá uma presunção de culpa ao ser avaliada a diligência na atuação médica.

Frank Pasquale é categórico ao sustentar a necessidade de se promover um futuro no qual a IA tenha a função primordial de auxiliar, ao invés de substituir os médicos, e que “sempre haverá um lugar para que especialistas verifiquem a precisão das recomendações algorítmicas e avaliem o quão bem elas funcionam no mundo real”.   O julgamento profissional e o diagnóstico clínico final não podem ser automatizados, pois haverá situações nas quais o médico, por razões sólidas/científicas não deverá seguir a recomendação do algoritmo.

Ressalte-se que, chegará (muito em breve) um momento no qual a Inteligência Artificial se tornará tão comum no setor de saúde e, mais precisamente, na prática clínica, que novas tecnologias deverão ser incorporadas à educação formal, ensinadas aos médicos em formação no Brasil desde os próprios bancos da universidade – o que já ocorre em instituições fora do país, tal como a Universidade de Standford, nos EUA. 

Além disso, é urgente a necessidade de que o próprio conselho de classe estabeleça algumas diretrizes sobre a política de capacitação e treinamento contínuo dos médicos com os sistemas de IA, a exemplo da resolução do CFM sobre cirurgia robótica publicada em 2022. Como afirmam Bernard Nordlinger e Cédric Villani, o médico do futuro deve ser “inteligente” e “aprimorado”, no sentido de implementar diversas inovações tecnológicas na sua prática clínica e, ao mesmo tempo, estar “melhor educado e informado para prevenir, analisar, decidir e tratar doenças com empatia e o toque humano”. 

Caso 4 – violação do dever de proteção: entidades hospitalares que implementarem sistemas de IA devem garantir a manutenção e funcionamento regular dos equipamentos. A garantia de condições apropriadas para utilização de sistemas decisionais automatizados por pessoas adequadamente treinadas, com avaliação e monitoramento constantes, deve ocorrer por meio de um programa de compliance alinhado com o trabalho do comitê de bioética do hospital. Contudo, questiona-se: o médico tem alguma responsabilidade sobre o arsenal tecnológico que ele utiliza na sua prática clínica?

O médico tem um dever de atualização que é intrínseco ao profissional e um dever de vigilância que é extracorpóreo, ou seja, está relacionado ao instrumental que ele usa para o seu exercício profissional. Ele tem a obrigação de estar sempre atualizado, mas não necessariamente ter à sua disposição todo o arcabouço tecnológico existente.  Por isso, o padrão de conduta exigível varia de acordo com as circunstâncias do caso concreto. 

Em geral, é exigida uma diligência mínima na utilização de tecnologias, razão pela qual, caso ocorra, por exemplo, um erro de diagnóstico grosseiro apoiado em um sistema de IA bastante ultrapassado, que apresenta frequentemente resultados errados/imprecisos, o médico pode vir a ser responsabilizado subjetivamente pela violação ao dever de vigilância decorrente da boa-fé objetiva contratual. Isso, especialmente quando o aparato tecnológico não for frequentemente atualizado e o médico estiver ciente da falha na manutenção do equipamento, a exemplo de um episódio ocorrido com pacientes oncológicos submetidos à radioterapia com o equipamento chamado Cobalt-60, no Instituto Oncológico Nacional do Panamá.

Ressalte-se que o médico, agindo com boa-fé, caso perceba que a IA não agrega valor na sua prática ou, ainda, traz frequentemente resultados errados, tem um dever ético – e jurídico – de parar de utilizar a tecnologia na sua prática clínica, sob pena de incorrer em violação positiva do contrato. Para além da possibilidade de incidir a responsabilidade do fabricante por um algoritmo defeituoso, veja-se que o debate se insere na observância do médico ao princípio ético da IA de fomentar a responsabilidade e prestação de contas – ou seja, incide aqui a ideia de accountability (data informed duties), com o correlato dever de cuidado e de vigilância decorrente da boa-fé objetiva.

A partir dos 4 casos debatidos acima, conclui-se que, cada vez mais, o médico precisará estar familiarizado com novas tecnologias, sendo um profissional altamente capacitado, com habilidades em múltiplas áreas que ultrapassam o limiar do conhecimento técnico em Medicina. Além disso, deverá possuir um treinamento constante e pautado em inovações médicas, desde o primeiro momento da sua formação. É imprescindível que essas tecnologias sejam implementadas com responsabilidade, respeitando princípios éticos e preservando a importância do papel do médico e a centralidade no ser humano.

Os novos especialistas deverão conseguir integrar tecnologia, ciência e habilidades interpessoais para fornecer cuidados de saúde mais personalizados, eficazes e acessíveis. O que determinará se o implemento da IA desumaniza ou despersonaliza a relação médico-paciente é a maneira pela qual a tecnologia será utilizada e o significado que a ela será atribuído nos diversos cenários da atividade médica.

Por fim, vale uma ressalva: é deveras inviável adotar a responsabilidade sem culpa no âmbito da atividade médica, mesmo para ser aferida a violação a um dever de conduta na prestação de serviços médicos com IA, os quais foram analisados nos casos acima, não apenas como mandamentos éticos, mas especialmente em razão da sua força jurídica cogente. Tratando-se o contrato firmado entre médico e paciente de negócio jurídico de natureza existencial, alguns deveres são preenchidos com novos e diferenciados significados, conduzindo a uma tutela distinta com uma lógica diversa daquela tradicional visão da responsabilidade civil contratual.

A violação positiva do contrato médico pautada em uma análise subjetiva se justifica porque os deveres de conduta apresentam-se de maneira qualificada na relação contratual médico-paciente, comportando-se quase que como obrigação principal. Nesse contrato existencial, encontra-se na culpa o fundamento jurídico da responsabilidade do profissional. De igual modo, a violação positiva do contrato médico (por meio do descumprimento dos deveres de conduta) deve ser aferida subjetivamente, por imperativo legal, nos termos do art. 951 do CC e do § 4º do art. 14, do CDC, sob pena de inviabilizar a profissão e despersonalizar a relação médico-paciente.

Novos paradigmas para os contratos de prestação de serviços médicos com IA se aproximam e é essencial buscar entendê-los. Evidencia-se a necessidade de impulsionar o pensamento crítico e o processo contínuo de aperfeiçoamento gradual e/ou ressignificação dos institutos e normas existentes. Isso tende a se tornar mais acentuado no (breve) futuro.

 


¹ PRICE II, W. Nicholson; GERKE, Sara; COHEN, I. Glenn. Liability for use of artificial intelligence in medicine. In: COHEN, I. Glenn; SOLAIMAN, Barry (ed.). Research handbook on health, AI and the law. Versão eletrônica. Cheltenham: Edward Elgar Publishing Ltd., 2023.
² MOLNÁR-GÁBOR, Fruzsina. Artificial intelligence in healthcare: doctors, patients and liabilities. In: WISCHMEYER, Thomas; RADEMACHER, Timo (ed.). Regulating artificial intelligence. Cham: Springer, 2020, p. 350-351.

³NOGAROLI, Rafaella; GUIA DA SILVA, Rodrigo. Inteligência artificial na análise diagnóstica:  benefícios, riscos e responsabilidade do médico. In: KFOURI NETO, Miguel; NOGAROLI, Rafaella (coord.). Debates contemporâneos em direito médico e da saúde. 2. ed. São Paulo: Thomson Reuters Brasil, 2022, p. 89-112.
⁴KFOURI NETO, Miguel. Responsabilidade civil do médico. 11. ed. São Paulo: Thomson Reuters Brasil, 2021, p. 35-37.

 Sobre as três dimensões semânticas da opacidade algorítmica, particularmente relevantes para o Direito Médico – (I) opacidade epistêmica; (II) opacidade pela não revelação; (III) opacidade explicativa –, vide tese desenvolvida originalmente no seguinte artigo: NOGAROLI, Rafaella; FALEIROS JÚNIOR, José Luiz de Moura. Tripla dimensão semântica da opacidade algorítmica no consentimento e na responsabilidade civil médica. Migalhas de Responsabilidade Civil, 17 jun. 2021. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/347150/tripladimensao-semantica-da-opacidade-algoritmica-no-consentimento. Acesso em: 22 maio 2023.
 TOPOL, Eric. Deep medicine: how artificial intelligence can make healthcare human again. Nova Iorque: Basic Books, 2019, p. 288; 308.
⁷Sobre o novo perfil do consentimento do paciente em novas tecnologias, remeta-se a DANTAS, Eduardo; NOGAROLI, Rafaella. Consentimento informado do paciente frente às novas tecnologias da saúde (telemedicina, cirurgia robótica e inteligência artificial). Lex Medicinae – Revista Portuguesa de Direito da Saúde, Coimbra, n. 13, ano 17, p. 25-63, jan./jun. 2020.
⁸ PASQUALE, Frank. New laws of robotics: defending human expertise in the age of AI. Cambridge: The Belknap Press of Harvard University Press, 2020, p. 33; 35.
 NORDLINGER, Bernard; VILLANI, Cédric; RUS, Daniela (coord.). Healthcare and artificial intelligence. Cham: Springer, 2020, p. VIII.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais lidas

Post Relacionado

Dólar abre com leve alta enquanto investidores analisam dados do IPCA

Dólar abre com leve alta enquanto investidores analisam dados do IPCA

SÃO PAULO (Reuters) – O dólar tinha leve alta frente ao real nas primeiras negociações desta quarta-feira, ampliando os ganhos da véspera, à medida que investidores analisavam dados do IPCA de setembro e aguardavam números de inflação dos Estados Unidos, em busca de sinais sobre a trajetória de juros do

Fitch diz que descarbonização da economia global está progredindo de forma muito lenta

Fitch diz que descarbonização da economia global está progredindo de forma muito lenta

LONDRES (Reuters) – A descarbonização da economia global está progredindo muito lentamente e, embora melhorias tenham ocorrido entre economias desenvolvidas, os países emergentes não têm conseguido reduzir suas emissões de carbono, alertou a agência de classificação de risco Fitch Ratings em um relatório publicado nesta quarta-feira. As emissões globais de

IPCA sobe 0,44% em setembro, diz IBGE

IPCA sobe 0,44% em setembro, diz IBGE

O Índice Nacional de Preços ao Consumidor Amplo (IPCA) subiu 0,44 por cento em setembro, após baixa de 0,02 por cento no mês anterior, informou o Instituto Brasileiro de Geografia e Estatística (IBGE) nesta quarta-feira. No acumulado de 12 meses até setembro, o IPCA teve alta de 4,42 por cento,