O BIG BROTHER ESTÁ BATENDO NA SUA PORTA
E você, vai abrir?
As novas tecnologias estão aí. E o que mais
me assusta são os avanços em inteligência artificial, que a maioria dos
incautos cidadãos acreditam ser apenas mais um desses aplicativos úteis que facilitam
o nosso dia-a-dia. Mas na verdade esses sistemas estão se disseminando sem
nenhum controle, utilizados tanto pelas poderosas corporações como pelo Estado
policial. Se não forem contidos a tempo, o controle das nossas vidas, nos
mínimos detalhes estará nas mãos dessa gente e nunca mais será possível nos
livramos do Grande Irmão, que nos vigia, controla os nossos atos, as nossas
intenções, projetos e sonhos.
A primeira pergunta é: para onde vão os
dados e que uso, governos e corporações, fazem com eles? E não, não é coisa “do
futuro”. Ela já está aí e controlando
nossas vidas. No futuro só vai aumentar e sair completamente do controle.
Como tudo, no início, a coisa é “vendida”
como se trouxesse um grande benefício para a sociedade, ou que é apenas algo
divertido e fácil de usar. No Facebook, por exemplo, a tecnologia é usada para
rotular pessoas na fotos enviadas. É bacaninha, não é. Eu uso. Smartphones
podem ser desbloqueados por ela. Que prático, que coisa segura! Em
supermercados menores de idade que compram bebidas são identificados e já
existem painéis publicitários que avaliam as reações dos consumidores ao seus
conteúdos. Tudo bonitinho, tudo muito social, cheio de boas intenções.
Tecnologia advinha orientação sexual |
Agora vamos aos perigos embutidos: os
Estados Unidos avaliam que até 2023 cerca de 97% dos passageiros das companhias aéreas serão
examinados minuciosamente pela tecnologia. Forças policiais inglesas testam a
tecnologia para identificar, nas ruas, criminosos. Segundo a Forbes já existe tecnologia capaz de advinhar a orientação sexual das pessoas (pra que?). Na China a coisa já foi bem
mais adiante e milhares de câmeras vigiam a população majoritariamente
muçulmana da província de Xinjiang.
Uma coisa importante sobre o reconhecimento
facial é que as máquinas têm um aprendizado próprio. Sim, é preciso que elas
aprendam por conta própria a realizar tarefas que os programadores não
conseguem repassar explicitamente. Só depois de “treinado” devidamente, através
de um sistema de “recompensa e punição” pelos erros e acertos, a partir de
milhares de exemplos de rostos é que o sistema “compreende” o que é de fato um
rosto e como distinguir um do outro.
Acredite, é assim que a coisa funciona.
É por conta desse detalhe, o aprendizado
próprio, que muita gente contrária ao uso abusivo do reconhecimento facial,
está criando meios de para enganar os equipamentos. Novamente para ficar claro.
Na medida, por exemplo, que milhares de câmeras são instaladas nas ruas, sob o
pretexto de identificar criminosos, elas estão proporcionando milhares de
informações sobre o comportamento dos indivíduos, de cada indivíduo
especificamente, que ficarão sob a guarda do Estado ou das corporações
autorizadas por ele. Essas informações, completas e altamente privilegiadas,
podem ser usadas para um controle absoluto das nossas vidas. Esse é o problema.
Existem formas mais agressivas de
atrapalhar o reconhecimento, como por exemplo direcionar o feixe de lasers
portáteis para as câmeras para ofusca-las, como estão fazendo manifestantes em
Hong Kong. Um determinado tipo de maquiagem também engana o sistema, assim como
certas padrões de roupas, podem provocar o chamado “falsos positivos” na
avaliação das máquinas.
Tudo está apenas começando, inclusive as
reações. Mas é preciso estar alerta e não deixar que as coisas andem ao sabor
do gosto das corporações ou dos Estados. Limites tem que ser traçados. A privacidade
tem que ser protegida. As informações sobre as pessoas têm que ser limitadas ao
que elas autorizarem. E quem não autorizar não pode ser perseguido ou excluído.
Estamos prestes a viver num mundo
perigosamente controlado. Se não agirmos a tempo não haverá volta e o Big
Brother, que por enquanto está apenas batendo na porta, vai entrar definitiva e
irremediavelmente em nossas vidas.
Comentários
Postar um comentário