Perfil

Advogado - Nascido em 1949, na Ilha de SC/BR - Ateu - Adepto do Humanismo e da Ecologia - Residente em Ratones - Florianópolis/SC/BR

Mensagem aos leitores

Benvindo ao universo dos leitores do Izidoro.
Você está convidado a tecer comentários sobre as matérias postadas, os quais serão publicados automaticamente e mantidos neste blog, mesmo que contenham opinião contrária à emitida pelo mantenedor, salvo opiniões extremamente ofensivas, que serão expurgadas, ao critério exclusivo do blogueiro.
Não serão aceitas mensagens destinadas a propaganda comercial ou de serviços, sem que previamente consultado o responsável pelo blog.



segunda-feira, 4 de março de 2019

“Não temos consciência da quantidade de dados que damos ao celular mesmo sem tocá-lo”


Advogada Paloma Llaneza explica que apagar aplicativos como Facebook e WhatsApp é a única forma de evitar que eles colham nossos dados

Paloma Llaneza, advogada e autora de ‘Datanomics’, durante a entrevista. LUIS SEVILLANO


Paloma Llaneza (Madri, 1965) foi uma das primeiras usuárias do Facebook. Mas essa advogada especializada em proteção de dados apagou sua conta ao ver como a rede social funcionava e quais informações colhia sobre ela. No dia em que a empresa de Mark Zuckerberg comprou o WhatsApp, ela também desinstalou esse serviço de mensagens instantâneas do seu celular. E enviou um comunicado a todos os seus contatos: “O Facebook adquiriu o WhatsApp e o adquiriu pelos usuários, adquiriu-o pelos dados de vocês. Vou embora”.

“Os dados são valiosos porque dizem muitíssimo sobre nós, e somos potenciais eleitores, potenciais compradores e potenciais solicitantes de serviços de transporte, saúde, educação e crédito. O mundo gira ao redor de nossas necessidades. Quanto melhor eu te conhecer, melhor serei capaz de te vender o que acho que você precisa, mesmo que você ainda não ache que precise, e de negar o que você pede”, diz ela numa entrevista ao EL PAÍS. Llaneza, que também é auditora de sistemas e consultora em segurança digital, acaba de publicar na Espanha a obra Datanomics, em que explica o que as empresas tecnológicas fazem com nossos dados pessoais.


No dia que o WhatsApp falar tudo o que lhe falamos o mundo acaba

O custo de manter instalados aplicativos como Facebook, WhatsApp e Instagram “é muito alto”: “No dia em que o WhatsApp falar de tudo o que lhe falamos, o mundo acaba”. Os gigantes tecnológicos chegam a conhecer o usuário melhor que alguns pais, cônjuges ou mesmo que o próprio indivíduo. “O que mais nos diz sobre um ser humano é aquilo que ele oculta de si mesmo: sua parte emocional. As redes sociais permitem saber qual é seu estado de ânimo em tempo real, se você está sofrendo por amor ou procurando medicação para os nervos, se tem depressão, se abusa do álcool, se sai muito ou se a música que você escuta indica uma tendência ao suicídio ou uma melancolia transitória que é parte do seu caráter”, diz a advogada.

O Facebook analisou dados de mais de seis milhões de adolescentes australianos e neozelandeses para determinar seu estado de ânimo e fornecer informação aos anunciantes sobre os momentos em que se sentiam mais vulneráveis, segundo um documento da companhia na Austrália vazado em 2017 pelo jornal The Australian. Ao saber como uma pessoa é e como se sente a cada instante, as empresas podem lhe vender no momento oportuno “algo de que necessite emocionalmente”: “Uma ideia, um pensamento, um partido político, um modo de vida ou mesmo um sentimento de superioridade nacional”. “Isto, que é preocupante, funcionou muito bem no Brexit, na eleição de Trump e em algumas eleições recentes na Espanha”, afirma Llaneza.
Como evitar a coleta dos nossos dados

Para evitar que as companhias tecnológicas reúnam dados sobre nós, Llaneza afirma que a única solução é apagar seus aplicativos: “Não há um conselho intermediário, tanto faz compartilhar mais ou menos publicações”. “A parametrização de privacidade do Facebook está pensada para terceiros, mas o Facebook vê tudo e guarda até seus arrependimentos, inclusive aquela mensagem que você ia mandar desancando alguém e que depois decidiu cancelar. Porque um arrependimento diz muito mais a seu respeito do que aquilo que você envia”, explica. Fazer um uso menos intensivo desses aplicativos não serviria, segundo Llaneza, porque “eles têm um monte de permissões para acessar o seu celular”: “Inclusive pela maneira como você mexe no celular e digita, eles têm uma impressão biométrica sua que lhe identifica com um alto grau de probabilidade”.



O Facebook vê tudo e guarda até seus arrependimentos, que dizem muito mais de você do que aquilo que você manda

Os dispositivos e aplicativos são pensados para serem “usáveis, maneiros e altamente aditivos”. O problema é que a percepção do risco entre os usuários “é muito baixa”: “Ninguém está consciente da quantidade brutal de informação que você dá a um celular mesmo sem tocá-lo”. “Ter um celular ou a Alexa em cima da mesa da sua casa lhe parece a coisa mais normal, e, entretanto, você não teria um senhor sentado na sala da sua casa todos os dias observando como você fala ou vendo como é seu lanche. É muito mais perigoso ter a Alexa em cima da mesado que esse senhor, que tem uma memória humana e vai esquecer metade do que ouvir”, conclui Llaneza.

COMO AS EMPRESAS RENTABILIZAM OS DADOS

As companhias rentabilizam os dados de seus usuários “à base de vender a publicidade direcionada e de gerar outros negócios ao redor dessa informação”. Enquanto na Europa há uma regulação “mais ou menos rigorosa”, nos EUA “o fato de você receber uma pena mais ou menos grave, ter acesso a diferentes universidades ou ser rejeitado ao solicitar um crédito, um seguro ou um serviço médico dependerá dos dados tratados sobre você”. Por que, apesar de nunca ter deixado de pagar uma dívida, podem lhe negar um crédito? “Porque os novos sistemas são preditivos e não analisam o passado, mas sim leem o futuro”, afirma Llaneza. Se um modelo predisser, por exemplo, que alguém tem uma alta probabilidade de se divorciar e sua capacidade econômica baixará, é possível que não lhe concedam uma hipoteca.

O uso desses sistemas acarreta um risco, já que os dados com os quais os algoritmos são treinados estão condicionados por nossos conhecimentos e preconceitos. Além disso, as máquinas às vezes terminam sendo uma caixa-preta que torna impossível entender qual caminho o modelo seguiu até chegar a determinada conclusão: “Uma das grandes questões que temos à nossa frente é a transparência algorítmica. Você tomou uma decisão: por que e como?”. “A propriedade de dados já está regulada. O que agora devemos regular é o controle sobre o resultado do tratamento sobre esses dados”, afirma a advogada.
Fonte: https://brasil.elpais.com/brasil/2019/02/21/tecnologia/1550768323_045000.html

Nenhum comentário: