27 C
Cuiabá
quinta-feira, janeiro 30, 2025

Como Donald Trump deveria lidar com o viés da Inteligência Artificial

Em 21 de janeiro, o presidente Donald Trump anunciou planos de bilhões de dólares em investimentos do setor privado para fortalecer a infraestrutura de IA (Inteligência Artificial) nos Estados Unidos. A iniciativa ressalta seu compromisso em manter a liderança americana em pesquisa de IA e inovação industrial. O governo Trump ainda enfrenta muitas questões urgentes sobre como navegar na crescente influência da Inteligência Artificial.

A principal delas: os grandes modelos de linguagem (LLMs) — do ChatGPT da OpenAI ao Gemini do Google — são politicamente tendenciosos? Um número crescente de pesquisas sugere que eles possuem tendências à esquerda. Em meus próprios estudos, descobri que os LLMs são mais propensos a usar terminologia favorecida pelos legisladores democratas, propor soluções políticas de esquerda, e a usar linguagem mais favorável ao discutir figuras públicas de esquerda em comparação com seus colegas de direita.

Esse viés não é necessariamente intencional. Os LLMs são treinados em grandes volumes de conteúdo da Internet, desde artigos de notícias e entradas da Wikipédia até publicações de redes sociais, postagens de blog e artigos acadêmicos. Como essas fontes geralmente refletem as perspectivas culturais e políticas de seus autores, os modelos inevitavelmente absorvem certos vieses. Esses vieses podem se tornar mais pronunciados durante o estágio de “ajuste fino” de um modelo, quando contratantes humanos instruem o modelo sobre normas de conversação. Mesmo instrutores bem-intencionados podem moldar o modelo introduzindo suas próprias versões ou suposições sobre as expectativas de seus empregadores.

Os vieses políticos na IA podem ter profundas repercussões sociais. Se os sistemas de IA tradicionais exibirem uma inclinação ideológica uniforme, o discurso público pode se estreitar. Se os usuários perceberem viés político no conteúdo gerado por IA, eles podem começar a perceber essas ferramentas como manipuladoras em vez de neutras, corroendo a confiança em uma tecnologia que deveria ser amplamente útil. Por fim, organizações mais conservadoras podem se sentir tentadas a desenvolver seus próprios modelos politicamente distorcidos. Quando usuários priorizam sistemas de IA alinhados com suas crenças políticas, eles podem reforçar ainda mais as câmaras de eco ideológicas e intensificar a polarização.

Então, o que o governo Trump pode fazer sobre o viés político nos sistemas de IA? Não há solução fácil. Tentar impor neutralidade política na IA é inerentemente difícil porque a “neutralidade” em si não tem uma definição universal — especialmente quando grupos diferentes não conseguem concordar sobre valores fundamentais ou o que constitui uma perspectiva justa. Quaisquer dados ou informações humanas que moldem esses sistemas geralmente refletem suposições culturais específicas.

Líderes proeminentes da tecnologia que apoiaram a campanha presidencial do presidente Trump — incluindo Elon Musk, Marc Andreessen e David Sacks — já expressaram preocupação com o viés político da IA. Mas os republicanos tradicionalmente se opõem aos excessos regulatórios do governo. Defender agora uma supervisão federal rigorosa das predisposições políticas da IA ​​representaria um afastamento significativo de sua posição de longa data.

Além disso, qualquer tentativa da administração Trump de regular os vieses políticos da IA ​​provavelmente seria recebida com ceticismo por pelo menos metade do país — e do mundo. Para aumentar a complexidade, a própria empresa de IA de Musk, a xAI, desenvolveu o Grok, um modelo de linguagem emblemático integrado à plataforma X (anteriormente Twitter). Dados os laços estreitos de Musk com a administração, qualquer esforço da Casa Branca para abordar o preconceito da IA ​​enfrentaria inevitavelmente o escrutínio sobre um potencial conflito de interesses.

Ironicamente, os laboratórios de IA em grandes empresas podem instintivamente se autocorrigir se anteciparem que a nova administração terá uma visão negativa do viés percebido em relação à IA. Por exemplo: a recente decisão da Meta de suspender iniciativas de checagem de fatos nas redes sociais pode ser vista como uma jogada estratégica para se alinhar ao governo Trump, em vez de um impulso genuíno pela neutralidade. Seja qual for o motivo dos ajustes, ainda não se sabe se algo do tipo será aplicado aos sistemas de IA — e, caso isso aconteça, se haverá mudanças significativas ou apenas correções cosméticas.

Em um mundo ideal, os sistemas de IA buscariam puramente a verdade, baseados em fatos e isentos de preconceitos. Mas alcançar a neutralidade completa pode não ser realista. Em vez disso, a sociedade pode precisar se adaptar a sistemas de IA que, assim como a imprensa e as redes sociais baseadas em algoritmos, podem exibir preferências políticas. No entanto, os formuladores de políticas e os líderes da indústria podem implementar medidas para minimizar a distorção ideológica nos modelos de IA:

Priorizar a precisão e a neutralidade. Uma verificação de dados mais rigorosa poderia ajudar a conter inclinações ideológicas sutis. Isso começa com a seleção cuidadosa dos dados de treinamento. A mera coleta de dados na internet traz o risco de importar vieses generalizados — ou falsidades descaradas — para as respostas de um modelo.

Pesquisa Avançada em Interpretabilidade. Os sistemas de IA geralmente operam como “caixas pretas”, dificultando a compreensão do motivo pelo qual um modelo responde de uma maneira específica. Ferramentas de interpretabilidade que podem identificar quais partes dos dados de treinamento influenciam respostas específicas podem ajudar a identificar e corrigir vieses.

Adotar padrões de transparência. A legislação que exija dos provedores de IA a divulgação de detalhes sobre métodos de treinamento, fontes de dados e vieses pode obter apoio bipartidário, já que os usuários merecem saber se um sistema tem preferências incorporadas sobre tópicos políticos delicados.

Estabelecer supervisão independente. Em vez de depender apenas de estudos acadêmicos ou auditorias internas conduzidas por laboratórios de IA, deveríamos providenciar que organizações independentes e apartidárias avaliem rotineiramente modelos de IA em busca de viés político. Suas avaliações proporcionariam transparência, ajudando tanto usuários quanto formuladores de políticas a tomar decisões informadas sobre como gerenciar e utilizar a IA de forma responsável.

No início da década de 2010, muitos elogiaram as redes sociais por conectar pessoas e democratizar a comunicação. No entanto, a tecnologia logo se tornou uma força polarizadora, influenciando eleições, espalhando desinformação e reforçando câmaras de eco. A IA agora se encontra em uma encruzilhada semelhante: ela servirá como uma fonte confiável de informações factuais e equilibradas ou se tornará mais um campo de batalha para conflitos partidários? Embora a neutralidade perfeita possa ser inatingível, reconhecer e abordar o viés político da IA ​​é importante. O governo Trump deve promover cuidadosamente uma IA justa sem sufocar a inovação ou a liberdade de expressão. Alcançar esse equilíbrio não será fácil, mas a credibilidade das ferramentas de IA — e do cenário político mais amplo — pode depender disso.

David Rozado é professor associado na Otago Polytechnic, na Nova Zelândia.

noticia por : Gazeta do Povo

PUBLICIDADE

NOTÍCIAS

Leia mais notícias