terça-feira, 28 de outubro de 2025
sábado, 14 de junho de 2025
STF forma maioria para mudar regras sobre responsabilidade das redes sociais
Por Ana Gabriela Sales, no GGN: O Supremo Tribunal Federal (STF) formou maioria para mudar o regime de responsabilidade de plataformas digitais por conteúdos publicados por seus usuários. A principal mudança defendida pelos ministros é a retirada de conteúdos ilegais após notificação da vítima, dispensando, assim, a exigência de ordem judicial, como prevê atualmente o artigo 19 do Marco Civil da Internet.
O entendimento representa uma inflexão no modelo vigente desde 2014 e pode impactar o funcionamento das plataformas no país. Como a decisão ocorre em sede de repercussão geral, o novo entendimento valerá para todas as instâncias do Judiciário.
Consenso na mudança, divergência na forma
Apesar do consenso entre a maioria dos ministros sobre a necessidade de atualizar as regras de responsabilização, ainda não há definição sobre como exatamente isso será feito. O presidente da Corte, Luís Roberto Barroso, indicou que o julgamento será suspenso após os votos restantes, para que se busque uma tese comum.
"Teremos os votos de quem já quiser votar e aí vamos suspender o julgamento para tentarmos produzir um consenso possível. O mais próximo possível do consenso", afirmou Barroso.
Três visões sobre o novo modelo de regulação
Durante os votos, os ministros Flávio Dino, Cristiano Zanin e Gilmar Mendes apresentaram caminhos distintos para o novo modelo de responsabilização.
Flávio Dino propôs que a Procuradoria-Geral da República (PGR) atue como reguladora do ambiente digital, com possibilidade de remoção de conteúdos a partir de notificações extrajudiciais. Para ele, liberdade de expressão deve ser equilibrada com responsabilidade constitucional.
"Não existe liberdade sem responsabilidade em termos constitucionais", afirmou.
Cristiano Zanin defendeu que as próprias plataformas digitais tenham autonomia para criar ou indicar entidades independentes que realizem a regulação dos conteúdos postados.
Já Gilmar Mendes foi mais incisivo ao afirmar que as big techs já atuam como reguladoras do debate público, sem a neutralidade que alegam. "O Marco Civil ainda representa um véu de irresponsabilidade para as redes sociais", diss. Segundo o decano do STF, empresas como Facebook, Google e Amazon interferem ativamente no alcance e na visibilidade dos conteúdos por meio de algoritmos, impulsionamento e filtros.
Impacto além dos tribunais
O julgamento tem como pano de fundo três ações com repercussão nacional. Entre elas, recursos apresentados por Faceboock e Google em 2017, que questionam decisões judiciais sobre a retirada de conteúdos e a responsabilidade por danos morais. Uma terceira ação, do partido Cidadania, discute o bloqueio de plataformas por decisões judiciais, a partir do caso do WhatsApp.
A mudança no entendimento do STF pode abrir caminho para uma nova regulação do ambiente digital no Brasil, com mais agilidade na remoção de conteúdos ilegais, como discursos de ódio, fakenews, racismo e incitação à violência, temas que, segundo os ministros, não podem mais ser tratados com neutralidade ou omissão pelas plataformas.
***
quarta-feira, 4 de junho de 2025
STF retoma julgamento que pode mudar regras das redes sociais no Brasil
Por Fernando Miller, no DCM: O Supremo Tribunal Federal (STF) retoma nesta quarta-feira 4 de junho um julgamento crucial que pode redefinir o papel das redes sociais no Brasil. Em debate está a constitucionalidade do artigo 18 do Marco Civil da Internet Lei 129652014 que atualmente limita a responsabilidade das plataformas digitais pelo conteúdo postado por seus usuários exigindo decisão judicial para que postagens sejam removidas.
O que está em jogo é a possibilidade de tronar as big techs como Google Meta dona de Facebook, Instagram e WhatasApp entre outras legalmente responsáveis por conteúdos ilegais publicados por terceiros como discursos de ódio, desinformação, incitação à violência e crimes contra crianças. O julgamento acontece em meio a pressões políticas e empresarias e pode gerar profundas mudanças na maneira como o Brasil regula o ambiente digital.
Hoje o artigo 19 estabelece que os provedores de aplicações de internet não podem ser responsabilizados por conteúdo gerado por terceiros a menos que haja uma ordem judicial específica determinando sua remoção. O texto também prevê que essa ordem judicial deve especificar claramente o que deve ser retirado do ar. A aplicação dessa regra depende de legislação específica. O STF agora analisa se esse modelo é compatível com a Constituição ou se é necessário ampliar a responsabilização das plataformas permitindo a remoção de conteúdo ilegal a partir de notificações extrajudiciais, ou seja sem decisão judicial.
Até agora três ministros já votaram e todos de formas diferentes se posicionaram contra o atual formato do artigo 19. Os ministros Dias Toffoli e Luiz Fux defenderam que em casos de conteúdos evidentemente ilegais como mensagens com ataques à democracia incitação à violência, racismo, pornografia infantil, entres outros a plataforma deve ser obrigada a remover o material apenas com uma notificação extrajudicial. Para eles não seria necessário aguardar uma ordem da Justiça.
O ministro Luís Roberto Barroso, por sua vez, apresentou uma posição mais moderada. Em seu voto ele defende que a notificação extrajudicial seja suficiente apenas nos casos de crimes graves à democracia. No entanto, para crimes contra a honra ou ilícitos civis em geral Barroso entende que a remoção deve ocorrer somente após decisão judicial.
O julgamento havia sido interrompido em dezembro de 2024, após pedido de vista do ministro André Mendonça que nesta quarta-feira apresentará um voto divergente dos já proferidos sinalizando uma terceira linha de interpretação.
Do lado empresarial, o Google e a Meta se posicionam publicamente contra a possibilidade de mudança do modelo atual. O presidente do Google no Brasil Fábio Coelho declarou em entrevista que se prevalecer o entendimento de que as plataformas são responsáveis juridicamente pelo que os usuários publicam o ambiente digital no país se tornará mais difícil de operar.
Em nota, o Google afirmou que abolir as regras que separam a responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet e que o Marco Civil da Internet pode e deve ser aprimorado desde que sejam estabelecidas garantias procedimentais e critérios que evitem insegurança jurídica e a remoção indiscriminada de conteúdo. Já a Meta ressaltou que caso o artigo 19 seja declarado inconstitucional as plataformas digitais estariam sujeitas a um regime amplo de notificação e remoção e ao mesmo tempo poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo mesmo sem terem sido notificadas.
O julgamento tem também impacto no cenário internacional. Recentemente o governo dos Estados Unidos sob Donald Trump ameaçou vetar vistos a autoridades brasileiras envolvidas em sanções contra as big techs. A ameaça veio após o ministro Alexandre de Moraes do STF ordenar a suspensão da rede social X, antigo Twitter, em 2024 devido ao descumprimento de decisões judiciais.
Estão sendo analisados dois recursos extraordinários que tratam da responsabilidade civil das plataformas por conteúdos de terceiros e da possibilidade de remoção de postagens ofensivas a partir de notificação extrajudicial. Um desse recursos foi apresentado pelo Google e outro pelo Facebook, ambos com o objetivo de contestar decisões judiciais que responsabilizariam as empresas por danos causados por conteúdo de usuários.
A depender do resultado do julgamento o STF pode declarar o artigo 19 inconstitucional obrigando as plataformas a atuarem de forma mais ativa na remoção de conteúdos ilegais, criar uma nova jurisprudência sobre a responsabilidade civil das empresas de tecnologia e os limites da liberdade de expressão na internet, além de intensificar o debate político sobre a necessidade de uma nova legislação. Trata-se portanto de um momento decisivo para o futuro da internet no Brasil.
***
sábado, 12 de outubro de 2024
É só o começo: big techs já sabem onde querem chegar com as IAs
Por Thiago Morais, no Olhar Digital: As principais big techs já começaram a direcionar esforços e investimentos para o desenvolvimento de agentes de IA, uma nova geração de sistemas que promete revolucionar a automação de tarefas complexas. Microsoft, Google, Anthropic e OpenAI esgtão na vanguarda dessa tendência, que pode transformar radicalmente a interação com a tecnologia nos próximos anos.
Diferentemente dos bots e assistentes virtuais tradicionais, que seguem comandos pré-programados, os agentes de IA são projetados para tomar decisões dinâmicas, aprender com feedback e se adaptar a situações imprevistas. Essa capacidade os torna potencialmente mais versáteis e eficientes em uma ampla gama de aplicações, desde atendimento ao cliente até análise de dados complexos.
A Microsoft já introduziu "Copilots" em seus produtos, visando automatizar tarefas administrativas e de atendimento ao cliente. O Google, por meio de sua divisão DeepMind, está explorando simulações avançadas para treinar esses agentes. Já a OpenMind considera o desenvolvimento de agentes como um passo crucial em direção à criação de inteligência artificial de nível humano.
Agentes de IA: Investimentos altos na nova tecnologia
O interesse nessa tecnologia não se limita apenas às grandes corporações. No últimos 12 messes, startups focadas em agentes de IA receberam mais de US$ 8 bilhões em investimentos, um aumento de 81,4% em relação ao ano anterior, segundo dados da PitchBook.
No entanto, apesar do otimismo, os agentes de IA ainda enfrentam desafios significativos. Demonstrações recentes revelaram falhas ao lidar com tarefas multietapas e cenários imprevistos. Além disso, o alto consumo de energia computacional torna esses sistemas custosos para operar em larga escala.
Preocupações éticas e de segurança também surgem, especialmente em relação ao potencial uso indevido dessa tecnologia para fins de spam ou engano. Um exemplo disso foi uma demonstração da OpenAI em que um agente de IA fez uma ligação telefônica sem se identificar como inteligência artificial, levantando questões sobre transparência e consentimento.
Apesar dos obstáculos, as empresas de tecnologia veem nos agentes de IA uma oportunidade de monetizar seus dispendiosos modelos de inteligência artificial. A expectativa é que, até 2025, essas tecnologias estejam amplamente implementadas em ambientes corporativos, assumindo tarefas de baixo risco e potencialmente liberando tempo humano para atividades mais criativas e estratégicas.
Edição: Bruno Capozzi
***
terça-feira, 11 de junho de 2024
Brasil é o primeiro país a ter "modo ladrão" para celulares Android
Reportagem de Carlos Rydlewski, no Metrópoles: o Brasil é o primeiro país do mundo a receber o recurso do "modo ladrão" para smartphones que utilizam o sistema operacional Android. A distinção foi confirmada nesta terça-feira (11/6) no Google for Brasil 2024, evento anual realizado pela gigante de tecnologia para apresentar novidades ao mercado local.
O mecanismo foi criado para combater roubos e furtos e utiliza de Inteligência Artificial, associados a ferramentas existentes nos celulares, como o acelerômetro, o sensor de movimentos. Funciona assim: a tela é bloqueada quando o sistema identifica um movimento abrupto do aparelho, como se alguém o tivesse arrancado da mão de outra pessoa.
O recurso também pode identificar fugas em velocidade, como as realizadas por meio de bicicletas ou motos, por exemplo. Nesses casos, a tela do celular exibe a mensagem "possível roubo detectado: este dispositivo foi bloqueado automaticamente para proteger seus dados". para que funcione, o usuário deve ativar o sistema de detecção de roubo nas configurações do aparelho.
Mais bloqueios
Além disso, o Google apresentou outros dois dispositivos de segurança incorporados ao Android no Brasil. Eles incluem o bloqueio rápido remoto e o bloqueio de celular offline, que interrompe o funcionamento do aparelho ao identificar comportamentos incomuns dos usuários.
As três funcionalidades estarão disponíveis para usuários com Android 10 ou versões mais recentes. A empresa apresentou um link por meio do qual os interessados podem se inscrever e receber informações das novas ferramentas.
Missão especial
De acordo com o Google, executivos do Android vieram ao Brasil em setembro de 2023, para entender como os criminosos agiam nas ruas das cidades do país. Eles também se reuniram com representantes do governo federal, em Brasília, para discutir o assunto. A atuação das "gangues das bicicletas" chamou a atenção do grupo e levou à criação do "modo ladrão".
***
quarta-feira, 26 de julho de 2023
Google e Facebook devem retirar anúncios falsos sobre o Desenrola
domingo, 14 de maio de 2023
O que levou o STF a abrir inquérito contra Google e Telegram
DW/Brasil - Supremo pede investigação de diretores das duas empresas que tenham participado de ações abusivas contra o PL das Fake News. Câmara acusa "big techs" de "sórdida campanha de desinformação, manipulação e intimidação" - O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes determinou nesta sexta-feira (12/05) a abertura de um inquérito para investigar diretores do Google e do aplicativo de mensagens Telegram que teriam atuado contra o Projeto da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, mais conhecido com PL das Fake News.
![]() |
| Imagem/reprodução/Foto: Evaristo Sa/AFP |
Em sua decisão, Moraes afirma que o inquérito tem como objetivo investigar diretores e responsáveis das duas empresas que "tenham participado da campanha abusiva" contra o projeto de lei.
O magistrado deu m prazo de 60 dias para que a Polícia Federal (PF) realize a investigação. Ele determinou a preservação e perícia das mensagens e a identificação e depoimentos dos investigados.
O pedido de inquérito ocorreu após o presidente da Câmara dos Deputados, Arthur Lira (PP-AL), acionar a Procuradoria Geral da República (PGR) com uma notícia-crime alegando que o Google e o Telegram têm realizado ação "contundente e abusiva" contra a aprovação do PL das Fake News.
A notícia-crime enviada à PGR dizia que Google e Telegram atuam para resguardar interesses econômicos e "têm lançado mão de toda sorte de artifícios em uma sórdida campanha de desinformação, manipulação e intimidação, aproveitando-se de sua posição hegemônica no mercado".
Congressistas sob pressão
O pedido da Câmara à PGR menciona um link disponibilizado pelo Google no dia 1º de maio, cujo título era "o PL das Fake News pode aumentar a confusão sobre o que é verdade ou mentira no Brasil", além de uma mensagem disparada pelo Telegram no 9 do mesmo mês, quer alertava que a lei iria "acabar com a liberdade de expressão".
Arthur Lira afirmou à PGR que o Google e o Telegram instigam seus usuários a "pressionarem os congressistas", além de promoverem uma campanha de desinformação.
Segundo afirmou, isso teria levado a uma "sobrecarga considerável nos serviços de TI da Câmara dos Deputados, com a ocorrência de instabilidade no portal e nos principais sistemas de apoio aos trabalhos legislativos". Lira alega que essa instabilidade afetou os trabalhos do órgão.
Ao encaminhar o pedido de abertura do inquérito ao STF, a vice-procuradora-geral da República, Lindôra Araújo, alegou que "o cenário fático narrado aponta para a existência de elementos de informações mínimos da prática de conduta delituosa que fundamentam a possibilidade de instauração de procedimento de investigação sob a supervisão do Supremo Tribunal Federal".
Votação na Câmara adiada
O votação do PL das Fake News, que propõe medidas para o combate à desinformação nas redes sociais, criminalização da divulgação de conteúdo falso e regras para a atuação e responsabilização das chamadas big techs no Brasil, foi adiada, após pressão exercida pelas gigantes da internet.
O PL, em discussão há três anos, ganhou força após os ataques golpistas de 8 de janeiro e os atentados a escolas em São Paulo e Blumenau.
O presidente da Câmara dos Deputados, Arthur Lira (PP-AL), adiou a votação que estava marcada para o dia 2 de maio, atendendo a um pedido do relator do projeto, o deputado federal Orlando Silva (PDdoB-SP).
Silva pediu o adiamento em meio a incertezas de que o projeto teria os votos necessários para a aprovação em plenário, evitando assim uma dura derrota para a articulação política do governo do presidente Luiz Inácio Lula da Silva.
O alcance do projeto de lei brasileiro
As normas previstas no PL se aplicam aos provedores com número de usuários no Brasil maior do que 10 milhões, mas não se limita a plataforma sociais, incluindo também serviços de mensagens instantâneas e ferramentas de busca. Veículos de imprensa e aplicativos de videoconferência não estão comtemplados.
O projeto também estabelece que as redes sociais tenham representação no Brasil, para o caso de precisarem ser acionados judicialmente e administrativamente.
De acordo com o projeto, decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes deverão ser cumpridas pelas plataformas no prazo de até 24 horas, sob pena de multa.
O PL das Fake News prevê que as plataformas devem disponibilizar aos usuários mecanismos de denúncia e "atuar diligentemente para prevenir e mitigar" uma série de crimes.
Na lista estão crimes contra o Estado Democrático de Direito, atos de terrorismo e preparatórios de terrorismo, crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, crimes contra crianças e adolescentes e de incitação à prática de crimes contra crianças e adolescentes, crime de racismo, violência contra a mulher, infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de emergência em saúde pública.
Além disso, os provedores terão que elaborar e publicar relatórios de transparência semestrais com informações sobre a moderação de conteúdo.
Responsabilização, publicidade paga e robôs
Embora os provedores não possam ser imediatamente responsabilizados por conteúdos individuais falsos ou criminosos produzidos por usuários comuns, a avaliação muda no caso da distribuição paga ou publicidade. Pelo texto, as plataformas serão responsabilizadas de forma solidária pela reparação de danos se essa distribuição tiver sido feita mediante pagamento.
Além disso, o texto determina que as plataformas exijam a identificação, por meio de documento válido, de anunciantes e usuários que pagam para impulsionar conteúdo. A medida mira especialmente anúncios de golpes financeiros disfarçados ou a propagação de fake news.
O texto ainda prevê a tipificação de um novo crime, que envolve usar robôs para divulgar em massa mensagens inverídicas sobre o processo eleitoral ou que possam causar dano à integridade física.
De acordo com o projeto, será considerado crime "promover ou financiar, pessoalmente ou por meio de terceiros, mediante uso de conta automatizada e outros meios ou expedientes não fornecidos diretamente pelo provedor de aplicações de internet, divulgação em massa de mensagens que contenha fato que sabe inverídico, que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal". A pena prevista é de um a três anos de reclusão e multa.
Limitações em aplicativos de mensagem
O projeto também prevê a necessidade de consentimento para inclusão em grupos ou listas de transmissão em aplicativos de mensagens e que exista uma limitação no número permitido de encaminhamento de mensagens ou mídias.
Segundo a proposta, haverá uma limitação de encaminhamentos de mensagens ou mídias recebidas de outro usuário para múltiplos destinatários.
Listas de transmissão, por exemplo, somente poderão ser encaminhadas e recebidas por pessoas que estejam identificadas tanto nas listas de contatos de remetentes e destinatários.
Nos últimos anos, a criação da ferramenta de Comunidades do WhatsApp, que permite criar grupos com até 5 mil pessoas, levantou acusações de que esses aplicativos de mensagens deixaram de ser simplesmente um espaço de comunicação interpessoal e passaram, na realidade, a funcionar como meios de comunicação de massa. Os efeitos desse tipo de ferramenta foram sentidos nas eleições de 2018, quando aplicativos de tornaram uma arena de disparos em massa de fake news.
Caso os provedores não cumpram decisões judiciais para a remoção de conteúdo, as multas podem variar de R$ 50 mil a R$ 1 milhão por hora de descumprimento e poderão triplicar de valor caso envolvam publicidade paga.
No caso de descumprimento das normas previstas na lei, os provedores poderão enfrentar multas que podem chegar a 10% do faturamento da empresa no Brasil ou de R$ 10 a R$ 1.00o por usuários cadastrado, com limite de R$ 50 milhões. Também estão previstos mecanismos de suspensão temporária das atividades.
***
quarta-feira, 29 de março de 2023
Google: "Responsabilizar plataformas não garante internet mais segura"
Por Manoela Alcântara, no Metrópoles: O advogado da Google há nove anos, Guilherme Sanchez, afirmou nesta terça-feira (28) que "aumentar a responsabilidade civil das plataformas não é a chave para uma internet mais segura". Sanchez participa de audiência pública no Supremo Tribunal Federal (STF) sobre regras do Marco Civil da Internet.
Os temas em pautas são a responsabilidade de provedores de aplicativos ou de ferramentas de internet por conteúdo gerado pelos usuários e a possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial.
O encontro foi convocado pelos ministros Dias Toffoli e Luiz Fux no âmbito de dois Recursos Extraordinários (RE 10373396 e RE 1057258) e dos Temas 533 e 987, de repercussão geral.
Durante sua explanação, Sanchez ressaltou que acompanha as ações judiciais para a retirada de conteúdos hospedados ou exibidos nas mais diversas plataformas do Google, como a Busca, o YouTube e o Google Maps. Por isso, em nome do Google Brasil, falou que pretende desfazer o "mito" de que a empresa só age para impedir conteúdos ilegais e danosos após o recebimento de uma ordem judicial.
"É um mito supor que o artigo 19 do Marco Civil da Internet seria a razão pela qual se pode encontrar conteúdos nocivos ou ilegais na internet. Nós, do Google, não esperamos até que haja uma decisão judicial para remover esse tipo de conteúdo das nossas plataformas. Pelo contrário. Nós removemos, com eficiência e em larga escala, os conteúdos que violam as políticas das plataformas do Google", disse aos ministros e representantes da sociedade civil presentes no evento.
Somente no Brasil, em 2022, o YouTube removeu mais de um milhão de vídeos que violavam as políticas contra desinformação, discurso de ódio, violência, assédio, segurança infantil, entre outras. "Esse número contrasta com uma quantidade muito menor de requisições judiciais para a retirada de conteúdo, que em todo o país, forma pouco mais de 1,7 mil", completou o advogado.
"As políticas do YouTube contra o discurso de ódio proíbem a discriminação com base em fatores como idade e classe social, que vão além das categorias legais. Nós também criamos regras específicas para remover desinformação sobre a Covid-19, pautadas pelas orientações da Organização Mundial da Saúde. Além disso, como forma de apoiar a democracia e a integridade das eleições brasileiras", completou o advogado da Google Brasil.
O advogado do Facebook, Rodrigo Ruf, defendeu a mesma linha: "Três milhões de conteúdos foram removidos pela Meta por serem considerados irregulares. A Meta está comprometida com o sistema de aprimoramento", afirmou.
Regulamentação
O ministro da Justiça, Flávio Dino e os ministros do STF tem opinião diversa à das plataformas. Na audiência, Dino defendeu a regulação da mídia: "Não há nada de exótico ou heterodoxo ou pecaminoso discutir regulação. Liberdade de expressão sem responsabilidade não é liberdade, é crime, é violação de direito, é abuso de direito", analisou o ministro de Lula.
Flávio Dino ainda completou ao dizer que o tema é debatido dentro do governo. "A liberdade de expressão não está em risco quando se regula. Defender a liberdade é regulá-la. Liberdade de expressão sem responsabilidade é abuso de direitos", completou.
O presidente do Tribunal Superior Eleitoral (TSE) e ministro do STF, Alexandre de Moraes, também defendeu a regulamentação das redes sociais. De acordo com Moraes, o atual modelo em que as plataformas funcionam, no Brasil e no mundo, está "falido" e precisa ser aperfeiçoado.
"O modelo atual é ineficiente, destrói reputações, dignidades, faz e fez com que houvesse um número de aumento de depressão de adolescentes, de suicídios, sem contar instrumentalização que houve no dia 8 de janeiro. Modelo falido, o modelo atual. E não é só no Brasil, é no mundo todo. Não é possível que só por serem depositadoras de informações não tenham nenhuma responsabilidade", frisou o ministro, que também é presidente do Tribunal Superior Eleitoral (TSE).
Todas as contribuições vão subsidiar o STF com o conhecimento especializado necessário para a resolução das controvérsias.
***
domingo, 7 de junho de 2020
Google tira do ar dossiê com dados de antifascistas
segunda-feira, 25 de maio de 2020
Sleeping Giants Brasil: perfil contra fake news incomoda bolsonaristas dentro e fora do Governo
quinta-feira, 21 de maio de 2020
Sleeping Giants: movimento que "quebrou" site de Steve Bannon chega ao Brasil, mirando extrema-direita
sexta-feira, 11 de dezembro de 2015
Google divulgou no YouTube os 10 vídeos mais vistos no Brasil em 2015
terça-feira, 1 de julho de 2014
Orkut será cancelado; saiba o que fazer com dados do perfil
Até o dia 30 de setembro, o usuário poderá exportar os álbuns de fotos para o Google+. Para isso, é necessário ter uma conta no Google+ e acessar este site. Depois, basta selecionar os álbuns desejados e clicar em “importar álbuns selecionados.”
Também dá para salvar fotos, perfil, scraps, depoimentos e atividades da conta no computador. Isso será possível pela ferramenta Google Takeout até setembro de 2016. É preciso ir para a página do Google Takeout, clicar em “escolher serviços”, selecionar “Orkut”, e clicar em “criar arquivo”. É necessário então aguardar o arquivo ficar pronto para fazer o download. De acordo com a empresa, não há limites de vezes para baixar essas informações.
Vale lembrar que quem decidir excluir o perfil do Orkut antes de 30 de setembro, não vai mais conseguir baixar suas informações pelo Google Takeout.
Para quem usa o aplicativo móvel da rede social, também será possível usá-lo normalmente até a data de cancelamento. Mas, a partir desta segunda-feira, já não será mais possível fazer o download do app pela App Store ou Google Play.
As comunidades públicas, ou seja, que estão visíveis a qualquer membro do Orkut e acessíveis via web serão salvas em um arquivo e ficarão disponíveis apenas para leitura na internet depois de 30 de setembro.
Para os proprietários de comunidades que quiserem que suas páginas fiquem públicas, é preciso acessar a página inicial da comunidade, clicar em “Configurações da comunidade” à esquerda, e então “Privacidade e Segurança.” Depois, é preciso selecionar a opção “Aberta - qualquer pessoa pode ver o conteúdo da comunidade”, e também selecionar “Mecanismos de pesquisa como o Google e usuários que não fazem parte do Orkut podem encontrar minha comunidade e seus tópicos.” Finalmente, é preciso salvar essas configurações.
Para manter a comunidade privada e evitar que ela seja incluída no arquivo, é preciso acessar as configurações de privacidade e segurança e fazer o contrário, desmarcando a opção sobre os mecanismos de busca na internet.
Será possível apagar qualquer postagem nas comunidades até 30 de setembro. Caso o usuário perca o prazo, todas as postagens podem ser deletadas se o Orkut for removido da conta do Google. Para isso, basta acessar a conta do Google, clicar em “Ferramentas de dados”, e, ao lado de “Gerenciamento da conta”, clicar em “Excluir produtos.” Então, é só clicar em “Remover o Orkut permanentemente”, e a empresa garante que todas as informações da rede social serão excluídas em alguns dias.
Fonte: Terra
Imagem: reprodução
sexta-feira, 30 de maio de 2014
Google abre a porta do 'esquecimento' aos cidadãos europeus
A empresa de Mountain View (Califórnia) explicou que irá estudar se os resultados que o motor de busca devolve contêm informação obsoleta ou se existe nela interesse publico.
Como exemplos, cita casos de más práticas profissionais, crimes financeiros, condenações criminais ou condutas das autoridades.
A Google sustenta que este formulário é "um esforço inicial" e que irá trabalhar com as autoridades de proteção de dados para "aperfeiçoar a sua estratégia", adiantando que irá criar um comité consultivo para ajudar a determinar o equilíbrio entre o direito ao esquecimento e o direito à informação.
Os cidadãos que solicitarem o direito a serem "esquecidos" nos resultados do maior motor de busca da internet vão ter de juntar uma cópia de uma identificação oficial, bem como explicar porque razão a informação que pretendem "apagar" é inadequada.
A decisão do Tribunal Europeu de Justiça foi tomada depois de uma queixa de um cidadão espanhol, e aplica-se a informações "inadequadas, não pertinentes ou já não pertinentes ou excessivas em relação ao objetivo pelo qual foram processadas tendo em conta o tempo decorrido".
O tribunal baseou a decisão na conclusão de que, ao abrigo das atuais normas de proteção de dados na UE, "um motor de busca na internet é responsável pelo processamento que faz de dados pessoais".
Publicado originalmente em: Jornal de Notícias
Imagem: reprodução/Kimihiro Hoshino/AFP














.jpg)




Siga no Twitter