PSICOLOGIA SOCIAL E FAKE NEWS

MODELOS DE IA PARA A PREVENÇÃO DA MANIPULAÇÃO DE MASSAS

Autores

  • Joaquim Antonio de Bastos Filho Faculdade Santana
  • Winicius Mainardes Faculdade Santana
  • Bruno Guzzo Faculdade Santana
  • Bruno Alexandre Slusarz Faculdade Santana
  • Taline Ienk Faculdade Santana

Resumo

No cerne de inúmeros dilemas digitais contemporâneos e, consequentemente, da desinformação, está a relação entre psicologia social, fake news e inteligência artificial (IA). Mais especificamente, a disseminação de fake news por meio de redes sociais e plataformas digitais. As maneiras pelas quais os algoritmos servem como condutores para a propagação de notícias falsas são um dos principais tópicos abordados neste artigo. Esses algoritmos, que visam aumentar o engajamento, acabam por consolidar ainda mais os vieses cognitivos e sociais, estimulando a disseminação de desinformação de maneira mais eficaz e veloz (Pariser, 2011). As descobertas ressaltam que esses algoritmos exploram vulnerabilidades psicológicas, como o viés de confirmação, o que reforça a necessidade de uma abordagem interdisciplinar para combater a manipulação em massa.A metodologia do estudo é baseada em uma revisão de literatura, proporcionando uma visão teórica abrangente do problema. A análise de trabalhos sobre IA e psicologia social permitiu identificar os mecanismos pelos quais as fake news se espalham e como a IA pode contribuir, tanto para ampliar quanto para combater essa disseminação. No entanto, a metodologia é limitada pela ausência de dados empíricos ou experimentos que validem as hipóteses levantadas. Isso impede uma análise mais profunda sobre os impactos reais dos modelos de IA na prevenção de desinformação (Shu et al., 2017).Uma das principais descobertas da pesquisa é que os algoritmos de IA criam bolhas informacionais, onde os usuários são expostos apenas a conteúdos que reforçam suas próprias crenças. Esse processo exacerbado pelo viés de confirmação, dificulta a troca de ideias entre diferentes grupos e fomenta a polarização social (Pennycook & Rand, 2018). A revisão também destaca que as fake news tendem a se espalhar mais rapidamente que as notícias verdadeiras devido ao seu apelo emocional, tornando ainda mais complexo o combate à desinformação (Vosoughi, Roy & Aral, 2018). Além disso, o estudo considera o efeito backfire, que ocorre quando a tentativa de corrigir mitos ou desinformação leva, paradoxalmente, ao fortalecimento das crenças equivocadas. Esse fenômeno representa um grande obstáculo na luta contra a desinformação, especialmente em contextos polarizados (Nyhan & Reifler, 2010). O estudo sugere que, para superar esse desafio, os modelos de IA precisam ser ajustados para personalizar estratégias de correção, levando em consideração as vulnerabilidades psicológicas e sociais dos usuários. No entanto, essa abordagem enfrenta desafios éticos, como a privacidade dos dados pessoais e o uso de perfis comportamentais. Em conclusão, embora a IA tenha grande potencial para combater a disseminação de fake news, sua eficácia depende da incorporação de insights psicológicos em seus algoritmos. O estudo ressalta que uma colaboração interdisciplinar entre psicologia social e IA é essencial para enfrentar os desafios éticos e práticos na prevenção da manipulação de massas (Sunstein, 2009). A abordagem proposta, ao mesmo tempo promissora, exige um maior desenvolvimento empírico para validar suas aplicações e impactos na sociedade.

Downloads

Publicado

18-10-2024

Como Citar

PSICOLOGIA SOCIAL E FAKE NEWS: MODELOS DE IA PARA A PREVENÇÃO DA MANIPULAÇÃO DE MASSAS. (2024). Anais Da Jornada Científica Dos Campos Gerais, 22. https://iessa.edu.br/revista/index.php/jornada/article/view/2725