Entretenimento

Zuckerberg promete IA contra discurso de ódio em cinco anos

Mas será que o Facebook existirá até lá?
11.4.18
Crédito: Shutterstock

Sempre ouvimos que logo, logo as inteligências artificiais vão dirigir nossos carros e cuidar de nossos assuntos jurídicos, mas por vezes é bom lembrar a realidade em que vivemos: é mais difícil aperfeiçoar essas máquinas do que parece. O fundador do Facebook, Mark Zuckerberg, deixou isso claro em seu testemunho nesta terça-feira diante do comitê que vigia as práticas da rede social quanto ao uso de dados.

Publicidade

De acordo com Zuckerberg, o Facebook contará com ferramentas de machine learning eficazes para a detecção automática de discurso de ódio entre “cinco a dez anos”. Uma declaração infeliz, já que ninguém tem ideia se o próprio Facebook existirá até lá.

De qualquer forma, usar essa janela de tempo é um golpe clássico da galera do Vale do Silício, e cabe lembrar que, há dois anos, Zuckerberg afirmou que a tal IA poderia superar seres humanos “nos próximos cinco a dez anos”.

Zuckerberg estava respondendo a uma pergunta do republicano John Thune. O político havia questionado como o Facebook determina o que é discurso de ódio na plataforma atualmente e quais os desafios de fazê-lo.

Em sua resposta, Zuckerberg comentou que, nos primórdios da rede, a empresa não contava com nenhuma ferramenta, mas agora possui recursos de IA que poderiam sinalizar conteúdo automaticamente. Zuckerberg disse que mais de 90% do conteúdo pró-Estado Islâmico ou Al Qaeda é sinalizado automaticamente por máquinas e que, no ano passado, a empresa passou a utilizar ferramentas automatizadas para detectar quando os usuários correm risco de inflingir danos a si mesmos e assim intervir.

“Estou otimista que, ao longo de um período entre cinco a dez anos, teremos ferramentas de IA que poderão compreender as nuances linguísticas de diferentes tipos de conteúdo, mas ainda não chegamos lá”, disse Zuckerberg. “Até automatizarmos mais o processo, há um índice de erros maior do que eu gostaria”, complementou.

As práticas pouco claras do Facebook em relação a discurso de ódio assombra a empresa há algum tempo. No ano passado, o site jornalístico ProPublicareferindo-se a documentos internos do Facebook – notou que a empresa tinha centenas de regras que levariam “homens brancos” serem grupo mais protegido do que “crianças negras”, por exemplo. Tais práticas culminariam em desastres de RP como quando o rapper Lil B foi banido temporariamente da plataforma por professar “discurso de ódio”.

Levando em conta os bem documentados problemas com ferramentas de machine learning, não há garantia de que os problemas do Facebook chegarão a uma solução definitiva. Muito pelo contrário: problemas novos surgirão, e mais sessões tensas como a de ontem serão necessárias.

Leia mais matérias de ciência e tecnologia no canal MOTHERBOARD .
Siga o Motherboard Brasil no Facebook e no Twitter .
Siga a VICE Brasil no Facebook , Twitter e Instagram .