O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) estão se aprofundando em um tema sensível: o uso inadequado da ferramenta de inteligência artificial, Grok, pela plataforma X. Essa tecnologia tem sido usada para criar e compartilhar, sem autorização, imagens de pessoas em contextos sexualizados. Os órgãos acharam que as explicações dadas pela empresa foram insuficientes.
No mês passado, essas entidades expediram uma série de recomendações à plataforma. Entre elas, o desenvolvimento de métodos técnicos para identificar e remover esse tipo de conteúdo gerado por usuários do X. Mas, mesmo após a empresa afirmar ter adotado medidas, as instituições apontaram a falta de evidências claras sobre a eficácia dessas ações. Testes iniciais continuam a mostrar problemas persistentes.
O que as instituições exigem da plataforma X?
MPF, ANPD e Senacon estão exigindo ação imediata da plataforma X para impedir que o Grok produza conteúdo sexualizado de crianças, adolescentes ou adultos sem consentimento. Quer saber como isso está progredindo? Eles requerem informações detalhadas sobre as ações já tomadas pela empresa.
Na nova manifestação, divulgada recentemente, os órgãos determinaram que o X adote medidas efetivas de imediato. A ideia é evitar que a ferramenta continue a criar conteúdos impróprios. E o MPF especificou que quer ver relatórios mensais sobre essa questão. A falta de transparência é uma grande preocupação.
Quais são as sanções em jogo para a plataforma?
Sabe o que acontecerá se a plataforma X não cumprir as exigências? Ela pode enfrentar multa diária, além de outras consequências sérias como responder por crime de desobediência e entrar no radar de investigações mais rigorosas. E tem mais: uma ação judicial pode ser movida contra ela.
A ANPD está olhando para todas as versões do Grok, enquanto o MPF exige detalhes precisos sobre as medidas tomadas contra deepfakes e conteúdos ilegais, inclusive o número de postagens e contas removidas.
Quais medidas a plataforma precisa implementar?
Medidas administrativas da Senacon já estão em andamento, pedindo provas das providências adotadas. A solicitação é clara: a empresa deve fornecer relatórios métricos detalhados, com dados verificáveis sobre a moderação e retirada de conteúdos inadequados. Isso inclui identificar quantos conteúdos foram detectados, removidos e o tempo de resposta médio.
O cenário é desafiador para a plataforma X, que está sob o escrutínio rigoroso das instituições brasileiras. A história está em desenvolvimento; por isso, estamos tentando contato com a assessoria da Plataforma X no Brasil, em busca de um posicionamento nesta conjuntura complexa.
Com informações da Agência Brasil