Roblox é processado por homicídio culposo após suicídio de adolescente em San Diego
Em Santa Diego, Califórnia, Becca Dallas entrou com uma ação judicial contra o Roblox após seu filho Ethan, de 15 anos, cometer suicídio em abril de 2024. A mãe acusa a plataforma de negligência e de permitir que predadores online se aproveitassem de crianças, incluindo seu filho autista, que tinha sido vítima de um relacionamento abusivo com um usuário adulto.
Processo contra Roblox destaca riscos na plataforma para menores
Dallas, de 47 anos, afirma que o Roblox, uma plataforma popular entre crianças de até 13 anos, possui vulnerabilidades que expõem seus usuários a predadores. Ethan, que jogava desde os 7 anos, foi influenciado por um adulto identificado como Timothy O’Connor, de 37 anos, preso por pornografia infantil e transmissão de material prejudicial a menores.
De acordo com o processo, Ethan foi incentivado por O’Connor a desativar controles parentais e, posteriormente, se envolveu em conversas sexuais via Discord, uma plataforma de mensagens. O adolescente enviou fotos explícitas sob ameaça, o que agravou seu sofrimento emocional e culminou em seu suicídio.
Padrões de segurança e omissão da plataforma
O documento judicial alega que o design do Roblox e a ausência de barreiras eficazes facilitaram a predação. Dallas afirma que, apesar de os controles parentais existirem, eles não impediam comunicação com adultos, o que foi explorado por O’Connor.
A ação também critica a permissividade da plataforma, que permite a criação de contas por adultos e a comunicação direta por meio de chats e recursos de voz, sem verificações de idade rigorosas. Especialistas em segurança internacionalmente declaram que o Roblox, com mais de 40 milhões de usuários menores de 13 anos, é um ambiente propício a abusos.
Respostas das plataformas e investigações em andamento
Após a tragédia, órgãos de segurança das Flórida e de Louisiana abriram investigações sobre a segurança infantil no Roblox. A Procuradoria Geral da Flórida iniciou apuração quanto às práticas da plataforma de proteger menores de predadores e manipulação online. Além disso, várias ações judiciais já foram ajuizadas contra a empresa, que nega responsabilidade direta.
Um porta-voz do Roblox afirmou que a empresa “está profundamente triste com a perda” e que trabalha para melhorar a segurança e cooperação com as autoridades. A Discord também declarou que exige idade mínima de 13 anos e utiliza tecnologia avançada para detectar conteúdos ilícitos.
Implicações jurídicas e precedentes possíveis
O processo de Dallas é considerado o primeiro formalmente por homicídio culposo contra o Roblox, apontando a negligência da plataforma na proteção de seus usuários mais vulneráveis. A ação busca uma indenização por danos emocionais e a responsabilização da empresa, além de estabelecer um precedente legal contra plataformas digitais de grande alcance.
Advogados especializados em direitos digitais afirmam que o caso pode reforçar a necessidade de regulamentação mais rigorosa em relação à segurança online de crianças e adolescentes, especialmente em ambientes de alta interatividade e anonimato, como o Roblox.
Reflexos e medidas de segurança em plataformas digitais
Especialistas alertam para a importância de um monitoramento mais rígido e de recursos de prevenção em plataformas voltadas ao público infantil. Mesmo com tentativas de verificar idades, muitos menores continuam acessando recursos que podem facilitar o contato com adultos mal-intencionados.
O incidente reacende o debate sobre a responsabilidade das empresas de tecnologia na proteção de usuários jovens, e a necessidade de leis que possam responsabilizar as plataformas por negligência na segurança de seus menores usuários.
Para Dallas, a tragédia reforça a urgência de ações que garantam maior proteção às crianças na internet. “Ninguém deveria passar pelo que Ethan passou”, afirmou ela, que pretende continuar sua luta por justiça e proteção infantil.
Com informações do Jornal Diário do Povo
Share this content:
Publicar comentário