Sistema quer avaliar a confiabilidade de conteúdos online
Por mais simples que seja a pesquisa feita no Google, milhares ou até mesmo milhões de resultados aparecerão a sua frente. Em meio a tanta informação, como distinguir aquilo que é verídico do que não é? Daniel Hasan, professor do departamento de Computação do Centro Federal de Educação Tecnológica de Minas Gerais (Cefet-MG), desenvolveu um sistema para avaliar o grau de confiabilidade de textos em sites colaborativos, como a Wikipédia ou fóruns.
O objetivo é utilizar a inteligência artificial para analisar o texto e a interação dos usuários, criando padrões memorizados pelo sistema e utilizados na hora de realizar as avaliações. Em entrevista para o Portal do Ministério da Educação, o professor contou que o programa avalia alguns indicadores de qualidade como o grau de incidência de erros ortográficos, as referências para outros conteúdos e até mesmo as avaliações feitas pelos próprios usuários. É o caso, por exemplo, da Wikipédia. “Se o artigo foi editado por usuários mais frequentes, aumenta a confiabilidade e qualidade de um site”, afirmou o professor.
O sistema faz parte da tese de doutorado de Daniel – escolhida como a melhor no Concurso de Teses e Dissertações em Banco de Dados do Simpósio Brasileiro de Banco de Dados (SBBD 2017) – e está em fase de testes. Ao todo, 67 indicadores já são utilizados para verificar a veracidade dos textos. Para o futuro, a intenção é disponibilizar esses indicadores online para que outros pesquisadores possam analisar e utilizar em outros estudos.