• A Revista Analytica é especializada em Controle de Qualidade das Industrias: Farmacêutica, Cosmética, Química, Biotecnologia, Meio Ambiente, Mineração e Petróleo.
    analytica-blackanalytica-blackanalytica-blackanalytica-black
    • Home Page
    • Leia a Analytica
    • Notícias
    • Sobre
      • Analytica
      • Expediente
      • Anuncie
      • Publique na Analytica
      • Assine a Analytica
    ✕

    Avanços da IA estão moldando vários aspectos do mundo, incluindo o modo de fazer pesquisa

    “A questão com a inteligência artificial (IA) vai além de ela ser boa ou má. É uma tecnologia que está moldando o mundo que vivemos e precisamos encontrar um caminho do meio, que nos permita avançar e viver bem.” Com esta mensagem, Christiane Woopen, diretora do Center for Life Ethics da Universidade de Bonn (Alemanha), convidou pesquisadores de diferentes áreas do conhecimento, e que trabalham com IA, a refletir sobre os caminhos que suas pesquisas estão tomando.

    Durante a 11ª edição do German-Brazilian Dialogue on Science, Research and Innovation, realizada no auditório da FAPESP, nos dias 7 e 8 de maio, em parceria com o Centro Alemão de Ciência e Inovação (DWIH) São Paulo, a pesquisadora alertou sobre como a inteligência artificial está transformando a pesquisa médica e a relação das pessoas com a saúde e a longevidade.

    Para Woopen, que atua na área de ética médica, a IA induziu uma mudança de paradigma na área de saúde, cujo foco passou de obter diagnósticos precoces e tratamentos precisos para um maior esforço no monitoramento e predição de doenças. “Isso é positivo. Afinal, todo mundo acha bom evitar ficar doente. No entanto, essa mudança também toca na nossa percepção do presente e nas expectativas, desejos e planos para o futuro”, disse.

    Woopen aprofundou a questão a partir de um exemplo corriqueiro. “Uma pessoa que sai de casa e esquece a chave pode pensar que isso aconteceu porque é esquecida, não dormiu bem ou foi o acaso. Já alguém que sabidamente tem risco elevado de desenvolver Alzheimer, por exemplo, vai pensar: será que esse esquecimento já é a doença?”, afirmou.

    Nem todos querem ter esse tipo de conhecimento. Estudo conduzido pelo grupo de Woopen perguntou para 126 pessoas que buscaram ajuda pela primeira vez em centros de detecção precoce na Alemanha se elas desejavam identificar o risco de apresentarem transtornos mentais: 49% responderam que sim e 35%, que não.

    “Mas o curioso é que a motivação por trás das duas respostas era a mesma: os pesquisados levaram em conta o impacto na autodeterminação. Os que responderam sim afirmaram que a informação poderia auxiliar a planejar a vida, enquanto os que reprovaram disseram que o conhecimento alteraria o planejamento de vida, fora o grande peso emocional da notícia. Portanto, os profissionais de saúde devem considerar cuidadosamente as expectativas individuais dos pacientes ao oferecer essa tecnologia”, alerta Woopen.

    O valor dos dados

    A pesquisadora afirmou ainda que o aumento da capacidade de analisar dados decorrentes de tecnologias de inteligência artificial traz impacto nos sistemas de saúde e, diante de mudanças de paradigmas, é preciso ter um olhar crítico.

    “Eu compartilho do sonho de conseguir conectar os dados gerados nos diferentes setores da saúde, como cuidado diário, atendimento primário, secundário e pesquisa. Essas informações, sem dúvida, auxiliariam na intercambialidade do sistema, na melhora do cuidado diário e nas possibilidades de pesquisa. Mas o que temos hoje na prática é que toda expertise e tecnologia para isso estão com poucas empresas. São elas que definem o que é feito, o que é importante e que tipo de paciente é interessante. Portanto, não se trata apenas de um poder financeiro, mas da capacidade de definir o que acontece no sistema de saúde”, pontuou.

    Para Diogo Cortiz, professor da Pontifícia Universidade Católica de São Paulo (PUC-SP), nessa seara é preciso levar em conta que dado não é o “novo petróleo”. “Trata-se de uma metáfora ruim, pois o petróleo é o que os economistas chamam de um bem rival, ou seja, quando consumida a quantidade do produto disponível, para os demais o acesso fica comprometido. O mesmo não ocorre com os dados: seu estoque não se esgota com o consumo e, se uma pessoa usa um dado, a outra também pode usá-lo. É essencial, portanto, considerar esse conceito nas discussões sobre política de acesso aos dados”, explicou.

    O pesquisador alerta que os brasileiros, ávidos usuários das redes sociais, por exemplo, estão gerando cada vez mais dados nas grandes plataformas. “As big techs usam essas informações para elas e o que sobra para os brasileiros [que geraram os dados]? Nada”, sublinhou.

    Mas o problema é ainda mais amplo. Segundo Cortiz, a Meta (ex-Facebook) assumiu que no Llama – modelo de IA de código aberto criado para superar rivais como o Gemini e o GPT4 – apenas 5% dos conjuntos de dados pré-treinados são de um idioma diferente do inglês. “A empresa também afirmou, portanto, não esperar o mesmo nível de desempenho em outros idiomas que não o inglês. Por isso, precisamos perguntar de quem é o dado e quem ele representa”, disse.

    Para o pesquisador, o país precisa discutir políticas e regulações que garantam o acesso dos brasileiros aos dados gerados nas plataformas. “Caso contrário, o Brasil vai ser apenas um fazendão de dados das big techs, sem qualquer contrapartida”, afirmou.

    “Pois é, toda vez que alguém me pergunta se a IA vai dominar o mundo ou nos matar, eu digo que provavelmente a IA não, mas as big techs, sim”, concordou Renata Wassermann, professora do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP).

    Inteligência aumentada

    Antes de apresentar os resultados de suas pesquisas na conferência, Elisabeth André, da Cátedra de Inteligência Artificial Centrada no Humano da Universidade de Augsburg, fez uma ressalva: “Doug Engelbart, o inventor do mouse de computador, já reconhecia em 1958 que o objetivo da tecnologia não deveria ser substituir os humanos, mas ampliar as capacidades humanas. Acho que essa foi uma declaração muito sábia e que ainda hoje precisamos levar em consideração”.

    André tem desenvolvido uma série de projetos, como aplicativos que auxiliam indivíduos a treinar como se portar em entrevistas de emprego, ou que ajudam crianças a combater em conjunto o bullying nas escolas e até uma espécie de google translate para linguagem de sinais que, além das sinalizações manuais, utiliza expressões faciais.

    “Não podemos ver a tecnologia como deuses ou coisas mágicas. Precisamos vê-la como matemática. Só assim podemos exigir explicações e mudanças. Mas o problema é que, com a IA autônoma [como os carros autônomos, por exemplo], 90% das decisões são tomadas sem supervisão. Em 80% delas duvidamos de soluções explicáveis. E 70% estão enviesadas. Apenas para dar um exemplo do que está acontecendo”, afirmou Anderson de Rezende Rocha, coordenador do Viva bem: inteligência artificial para saúde e bem-estar – um Centro de Pesquisa em Engenharia (CPE) constituído por FAPESP e Samsung na Universidade Estadual de Campinas (Unicamp).

    Rocha enumerou uma série de pesquisas envolvendo inteligência artificial na saúde que não foram para frente ou apresentaram resultados muito questionáveis. Um dos casos ocorreu durante a pandemia, quando diversos grupos de pesquisa no mundo tentaram detectar a COVID-19 por meio de imagens de raios X. “Depois da pandemia, um grupo dos Estados Unidos fez um exercício de análise desses 200 estudos. Sabe quantos deles [os autores] trabalhavam em hospitais? Nenhum. Portanto, nenhum dos estudos funcionava na prática. Eles foram desenvolvidos sem levar em conta as especificidades da implantação. Portanto, eu pergunto: queremos inteligência artificial com potencial de substituir atividades humanas ou uma inteligência aumentada, que complemente nossas potencialidades e faça a humanidade evoluir?”, questionou.

    Julgamentos alucinados

    As inquietações com o uso de inteligência artificial não se restringem à área de saúde. “O ChatGPT foi lançado no fim de 2022 e, no começo do ano seguinte, já havia nos Estados Unidos notícia de um advogado que usou o ChatGPT para elaborar uma petição. E o documento citou precedentes que não existiam, ou seja, uma alucinação do sistema”, contou Juliano Maranhão, professor da Faculdade de Direito da USP.

    “Dois meses depois, um juiz norte-americano proferiu uma sentença que citava precedentes alucinados. E isso foi um escândalo ainda maior. Quando interrogado sobre a sentença, o juiz apenas afirmou que não era culpado, pois a sentença tinha sido redigida por seu assistente. Então o funcionário público afirmou que não tinha sido ele, mas o ChatGPT. E isso, é claro, gerou preocupação não só nos Estados Unidos, mas aqui também, dado que tivemos casos semelhantes ocorrendo no Brasil já em 2023”, relatou.

    Maranhão conduziu uma pesquisa sobre o uso da inteligência artificial no Judiciário brasileiro que contou com respostas de 1,6 mil juízes e 18 mil funcionários que trabalham nesse sistema. Metade dos respondentes não conhecia ou não estava familiarizada com o uso de IA generativa – categoria de inteligência artificial que pode criar textos, imagens, vídeos, áudios ou códigos. No entanto, 80% dos que não usam a tecnologia afirmaram achar que ela poderia ser útil – o que sinaliza um possível crescimento do uso de IA no Judiciário brasileiro num futuro próximo.

    “Dos 50% que estavam usando IA generativa, 30% o faziam em suas atividades profissionais, ou seja, na produção de documentos e conteúdos, como a elaboração de resumos de documentos, ou na apresentação de propostas para a composição de frases, que posteriormente foram revisadas. Algo que pareceu adequado, mas que levantou questões importantes, já que se trata muitas vezes de um conteúdo confidencial”, diz.

    A pesquisa mostrou ainda que, embora alguns tribunais tenham contratado serviços de ChatGPT ou o Copiloto (da Microsoft) para uso oficial no Judiciário, essas tecnologias são utilizadas no privado: a pesquisa é feita no computador pessoal do servidor e, depois, o material é transferido para o sistema judicial.

    Fora isso, há também o risco de usar a IA como mecanismo de pesquisa de precedentes. “O que não é um problema em si, mas pode ser um agravante caso o conteúdo não seja revisado. O resultado da pesquisa mostra também que não há treinamento e política para a governança do uso da tecnologia no Judiciário”, alertou.

    Fora isso, 83% dos funcionários públicos que usam a ferramenta afirmaram não informar o uso ao juiz. “Portanto, não é uma surpresa que estejam ocorrendo erros e alucinações no produto, feitos pelo ChatGPT ou outras ferramentas. Foi possível perceber a existência de uma preocupação significativa se o uso da IA generativa era moral, ético ou mesmo legal. E isso é preocupante porque traz opacidade ao uso”, argumenta.

    Para Maranhão, a questão exige regulamentação. “Não só pelo risco de alucinações, mas também por se tratar de conteúdo confidencial. Devemos proibir o uso privado?”, questionou.

    Para assistir aos debates do primeiro dia do evento acesse: www.youtube.com/watch?v=V9ZZF55OZBA.

    A íntegra do segundo dia está disponível em: www.youtube.com/watch?v=_NuVADzbUb8.
    Matéria – Maria Fernanda Ziegler | Agência FAPESP 

    Imagem – Na palestra de abertura, Christiane Woopen, do Center for Life Ethics da Universidade de Bonn, falou sobre como a IA está transformando a pesquisa médica e a relação das pessoas com a saúde e a longevidade (foto: Daniel Antônio/Agência FAPESP)

    Compartilhar

    Artigos Relacionados

    30 de maio de 2025

    Indústria farmacêutica aposta em produtos que se assemelham a balas


    Leia mais
    29 de maio de 2025

    VEOLIA apresenta portfólio completo de soluções para a Indústria Farmacêutica e Cosmética na FCE PHARMA 2025


    Leia mais
    28 de maio de 2025

    A importância das vidrarias calibradas e equipamentos de qualidade em laboratórios


    Leia mais

    Leia a última edição

    Últimas notícias

    • Indústria farmacêutica aposta em produtos que se assemelham a balas
    • VEOLIA apresenta portfólio completo de soluções para a Indústria Farmacêutica e Cosmética na FCE PHARMA 2025
    • Avanços da IA estão moldando vários aspectos do mundo, incluindo o modo de fazer pesquisa
    • A importância das vidrarias calibradas e equipamentos de qualidade em laboratórios
    • Resíduo da produção de suco de laranja pode contribuir com plásticos biodegradáveis mais resistentes
    • Plano visa regulamentar acesso a fármacos a base de cannabis
    © 2020 . All Rights Reserved. Revista Analytica