A Personalização da Esfera Pública e a Bolha de Filtros
Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE

Vista como uma fonte diversificada, plural e aberta de informações sob os mais diversos
pontos de vista, a internet nos remete a uma imagem de uma enorme biblioteca, com serviços
como Google propiciando um mapa universal. Presumimos que a internet seja um grande
instrumento para nos conectar e nos aproximar, e para ajudar a criar um mundo melhor,
verdadeiramente mais plural e mais democrático. Não obstante, alguns indícios nos levam a
suspeitar de que no momento a realidade pode ser bem diferente. Os anúncios que nos são
exibidos, assim como os resultados de busca que obtemos na internet, e até mesmo as notícias
veiculadas nos portais de grandes conglomerados jornalísticos e agregadores de notícias estão
cada vez mais baseados em critérios automatizados de seleção: os chamados algoritmos de
classificação estão personalizando o que chega até cada um de nós, e o mais grave é que não
conhecemos e nem sequer somos alertados sobre os critérios adotados. É como se
estivéssemos vivendo numa bolha de informações que proíbe a entrada de visões e
perspectivas que divergem das nossas.

A personalização é viável devido sobretudo às tecnologias de rastreamento da navegação na
rede. O fato é que, para melhorar a relevância dos anúncios e garantir uma melhor experiência
online ao usuário, anunciantes e empresas de serviços na internet, aí incluídos busca, redes
sociais, e-mail e comércio eletrônico, todos fazem uso de tecnologias de rastreamento das
atividades do usuário por meio da gravação de pequenos arquivos conhecidos como “cookies”
no sistema de arquivos do usuário. A partir dos dados gravados nos cookies é possível
construir um perfil “comportamental” e demográfico do usuário, e daí personalizar sua
experiência online.

O fenômeno da personalização da esfera pública já havia sido analisado por Cass Sunstein,
influente jurista americano e hoje administrador do “Office of Information and Regulatory
Affairs” do governo Obama, em seu livro “Republic.com” (Princeton Univ Press, 2002).
Argumentando que a democracia depende de experiências compartilhadas e requer que os
cidadãos sejam expostos a tópicos e idéias que não teriam escolhido antecipadamente, Sustein
já revelava preocupação com os possíveis efeitos negativos trazidos pela internet com a
facilidade de personalização do noticiário e a criação do que ele chamou de “Daily Me”
(“Diário Eu”): “no ciberespaço, já temos a capacidade de filtrar tudo exceto o que desejamos
ver, ouvir e ler”. Numa espécie de segunda edição reformulada sob a ótica da chamada
“internet interativa”, Sustein em “Republic.com 2.0” (Princeton Univ Press, 2009) defende que,
ao gravitar apenas em torno de blogs, podcasts e outras mídias sociais que reforçam suas
próprias visões, o cidadão vai se privando de entrar em contato com perspectivas diferentes, e
o sentido de “empoderamento” pessoal posteriormente associado a “liberdade” acaba
alimentando o efeito “câmara de eco”, que substitui um sentido de unidade democrática com
polarização acelerada. E essa tendência de se isolar em “casulos de informações” pode
representar um dos efeitos mais perniciosos da internet sobre a esfera pública, argumenta
Sunstein.
Se há alguma legitimidade na preocupação de Sustein com o excesso de personalização que os
próprios cidadãos estariam promovendo através do uso da tecnologia, imagine o cenário em
que a personalização é feita por máquinas, algoritmos. Eli Pariser, ativista e coordenador da
organização não-governamental americana de cunho político MoveOn.org, em palestra no
portal TED.com intitulada “Beware online ‘filter bubbles’” (Março 2011) chama a atenção para
o fato de que, à medida que as empresas da web buscam incessantemente adaptar seus
serviços (aí incluídos noticiários e engenhos de busca) às preferências pessoais de cada um dos
seus clientes, surge um perigoso efeito colateral: o cidadão se vê preso numa “bolha de filtros”
e não é exposto a informações que poderiam questionar ou ampliar sua própria visão de
mundo. E o resultado é que “os filtros de personalização servem a um tipo de autopropaganda
invisível, nos doutrinando com nossas próprias idéias, amplificando nossos desejos por coisas
que nos são familiares e nos deixando cegos aos perigos à espreita no território negro do
desconhecido.”

Como resultado de suas reflexões sobre as implicações sociais dessa bolha de filtros, Pariser,
em seu livro “The Filter Bubble: What the Internet Is Hiding from You” (The Penguin Press HC,
Maio 2011), chama a atenção para o fato de que, diferentemente do que se presume, os
resultados de uma busca no engenho da Google não são os mesmos para todos os usuários,
nem idênticos para o mesmo usuário em momentos distintos. Desde Dezembro de 2009 que o
algoritmo da Google de ordenação dos resultados usa diversas variáveis (vide o post
“Personalized Search for everyone” publicado no “The Official Google Blog” em 04/12/2009),
mais de 50 segundo fontes seguras, que envolvem desde o tipo de computador que está sendo
usado, a história de navegação associada àquele usuário, até o tipo de navegador através do
qual a busca foi solicitada, incluindo o local associado ao endereço de IP da máquina do
usuário. Assim, uma busca sobre “células tronco”, por exemplo, poderia produzir resultados
completamente diferentes dependendo da posição de quem fez a busca, se entusiasta ou
ativista contrário. Igualmente, uma busca por “prova das mudanças climáticas” pode levar a
resultados bem distintos para um ambientalista, por um lado, e para um executivo de uma
empresa de produção de energia considerada poluente, por outro lado.

Isso não ocorre apenas nos engenhos de busca. Nas redes sociais a personalização é
ingrediente fundamental na fidelização do cliente. Alguém que tem centenas de amigos no
Facebook, por exemplo, vai ver as notícias de mural provenientes apenas dos mais chegados,
pois o algoritmo por trás do serviço da Facebook se baseia nas interações, nos cliques e nas
declarações de “curtir” realizadas pelo usuário para ser capaz de fazer uma previsão do que, e
de quem, mais lhe interessa. Algo semelhante faz o Yahoo! News para descobrir qual notícia
mais interessa ao usuário com aquele perfil, a Netflix para conseguir recomendar o filme que
mais se encaixa nos gostos do cliente com aquele histórico, a Amazon para adivinhar o livro ou
produto que interessaria a alguém com perfil semelhante, a Zappos para encontrar que tipo de
sapato está dentro das preferências, etc. Dizendo-se preocupado em “garantir que esses
algoritmos carreguem um sentido de vida pública, um sentido de responsabilidade cívica,”
Pariser clama por um ativismo cibernético que busque forçar essas empresas a cumprir o que
muitas delas declaram como slogan de missão e de boas intenções (“Do no evil”, isto é, “Não
seja do mal”, é o motto da Google). Lembrando a máxima de Melvin Kranzberg (1917–1995),
um dos fundadores da Society for the History of Technology, de que “tecnologia não é do bem
nem é do mal, nem é neutra”, parece imperioso fazer o possível, seja por regulação
governamental ou por pressão ativista não-governamental, que os melhores valores de uma
sociedade aberta e democrática sejam refletidos no desenho da tecnologia.

Dizendo-se esperançoso de que a internet ainda venha a cumprir a promessa da interconexão
global da humanidade, Pariser reconhece que, embora se revelando perfeita no apoio à
formação de grupos de pessoas com interesses comuns, será preciso muito ativismo para
garantir que a internet seja de fato berço do verdadeiro espírito democrático de tolerância e
convivência plural. Como diz Evgeny Morozov em sua resenha do livro de Pariser (“Your Own
Facts”, New York Times, 10/06/2011), além do alerta para os perigos do excesso de
personalização, “The Filter Bubble” merece aplausos pela advertência para o crescente poder
dos intermediários da informação cujas regras, protocolos e motivações nem sempre são
visíveis.

Mais conteúdo relacionado

PDF
Monografia FECAP | Pós-Graduação Marketing Digital
PPT
WEBmarketing 3 Web20
PDF
Artigo Científico - Redes Sociais
PPT
O Design de Interfaces na Web 2.0
DOC
O AVANÇO DOS MEIOS DIGITAIS E A PRODUÇÃO DE INFORMAÇÃO: Como as redes sociais...
DOC
O excedente cognitivo e a arquitetura de participação
PDF
We open governments: liberdade de informação e dinâmicas ciberativistas na er...
PPTX
3sfi gcollections
Monografia FECAP | Pós-Graduação Marketing Digital
WEBmarketing 3 Web20
Artigo Científico - Redes Sociais
O Design de Interfaces na Web 2.0
O AVANÇO DOS MEIOS DIGITAIS E A PRODUÇÃO DE INFORMAÇÃO: Como as redes sociais...
O excedente cognitivo e a arquitetura de participação
We open governments: liberdade de informação e dinâmicas ciberativistas na er...
3sfi gcollections

Destaque (15)

PPTX
Presentation_NEW.PPTX
DOC
NickLarussoResume.doc
PPTX
20160719 23 Research Data Things
PPTX
Essere adolescenti nel terzo millennio adolescenti e blu
DOCX
Virus informático
PPT
OLIVAR ECOLOGICO
PPT
Enemigos de la iglesia
PPTX
Activity 3 - Axial Skeleton
PPTX
Input devices
PPTX
PDF
10 Incredible Health Benefits of Ginger
PPTX
Erasmus+ experiencia de la profesora de inglés
PPTX
Pihak yang terlibat dalam penyusunan amdal
PPTX
Pengetahuan lingkungan industri pencemaran air
Presentation_NEW.PPTX
NickLarussoResume.doc
20160719 23 Research Data Things
Essere adolescenti nel terzo millennio adolescenti e blu
Virus informático
OLIVAR ECOLOGICO
Enemigos de la iglesia
Activity 3 - Axial Skeleton
Input devices
10 Incredible Health Benefits of Ginger
Erasmus+ experiencia de la profesora de inglés
Pihak yang terlibat dalam penyusunan amdal
Pengetahuan lingkungan industri pencemaran air
Anúncio

Semelhante a A personalização da esfera pública e a bolha de filtros (20)

PDF
2012 11 09_v_baldi_filtros_smartcities
PPT
Práticas e tendências da mídia social na esfera do Jornalismo Digital
PPT
Usos Das Plataformas Sociais Anhanguera 2009
PPTX
Como usar o GOOGLE para fortalecer sua empresa
DOC
A internet e a democratização
PPSX
20091006 Redes Sociais Am Chamv2
PPT
Convergência de Tecnologias e o Novo Consumidor
PDF
Seminário de Comunicação Digital - Unimed VTRP
PPTX
Mídias sociais: oportunidades e riscos para os seus negócios
PPT
Conselho da Mulher Empresária junho 2011
PDF
A mudança da comunicação de massa para redes sociais. O que as manifestações ...
PDF
Rio Info 2015 - Painel Redes sociais – implicações e desafios contemporâneos ...
PDF
O que o Setor Público Pode Aprender com o Setor Privado
PDF
Novas Tecnologias da Comunicação
PPT
PPTX
A presença do STJ no Facebook
PPT
Palestra: "Os 8Ps do Marketing Digital", por Sérgio Costa Taldo: Café Digital...
PPT
Palestra: "Os 8Ps do Marketing Digital", por Sérgio Costa Taldo, em 25-10-2011
PPT
Palestra: Os 8Ps do Marketing Digital, UCP, Petrópolis, 25.10.2011
PDF
Interrogando plataformas e algoritmos digitais
2012 11 09_v_baldi_filtros_smartcities
Práticas e tendências da mídia social na esfera do Jornalismo Digital
Usos Das Plataformas Sociais Anhanguera 2009
Como usar o GOOGLE para fortalecer sua empresa
A internet e a democratização
20091006 Redes Sociais Am Chamv2
Convergência de Tecnologias e o Novo Consumidor
Seminário de Comunicação Digital - Unimed VTRP
Mídias sociais: oportunidades e riscos para os seus negócios
Conselho da Mulher Empresária junho 2011
A mudança da comunicação de massa para redes sociais. O que as manifestações ...
Rio Info 2015 - Painel Redes sociais – implicações e desafios contemporâneos ...
O que o Setor Público Pode Aprender com o Setor Privado
Novas Tecnologias da Comunicação
A presença do STJ no Facebook
Palestra: "Os 8Ps do Marketing Digital", por Sérgio Costa Taldo: Café Digital...
Palestra: "Os 8Ps do Marketing Digital", por Sérgio Costa Taldo, em 25-10-2011
Palestra: Os 8Ps do Marketing Digital, UCP, Petrópolis, 25.10.2011
Interrogando plataformas e algoritmos digitais
Anúncio

Mais de Daniel Guedes (20)

PDF
Recurso Eduardo Cunha
PDF
Acp tim
DOC
Relatório da comissão1
DOC
Balanço carnaval multicultural recife 2012
DOC
Gvpk auditoria fccr tce modificado 2
PDF
Parecer ministério público de pernambuco
PDF
Carnival in recife
PDF
Sond serviços pernambuco jan12 (1)
DOC
Startups escaláveis e a experimentação com modelos de negócio
PDF
O novo painho da politica do ne
PDF
Lh+dem+adpf[2]
PDF
FBC_O_Globo_12_jan_12
PDF
Capaem3
PDF
Materia projetec 18_setembro_2011
PDF
Materia projetec 18_setembro_2011_2
PDF
Nota psb
PDF
Balanço gestão 2011 07-12-2011
PDF
Eduardo o globo
PDF
Eduardo o globo
PDF
Relatório_Refinaria
Recurso Eduardo Cunha
Acp tim
Relatório da comissão1
Balanço carnaval multicultural recife 2012
Gvpk auditoria fccr tce modificado 2
Parecer ministério público de pernambuco
Carnival in recife
Sond serviços pernambuco jan12 (1)
Startups escaláveis e a experimentação com modelos de negócio
O novo painho da politica do ne
Lh+dem+adpf[2]
FBC_O_Globo_12_jan_12
Capaem3
Materia projetec 18_setembro_2011
Materia projetec 18_setembro_2011_2
Nota psb
Balanço gestão 2011 07-12-2011
Eduardo o globo
Eduardo o globo
Relatório_Refinaria

A personalização da esfera pública e a bolha de filtros

  • 1. A Personalização da Esfera Pública e a Bolha de Filtros Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE Vista como uma fonte diversificada, plural e aberta de informações sob os mais diversos pontos de vista, a internet nos remete a uma imagem de uma enorme biblioteca, com serviços como Google propiciando um mapa universal. Presumimos que a internet seja um grande instrumento para nos conectar e nos aproximar, e para ajudar a criar um mundo melhor, verdadeiramente mais plural e mais democrático. Não obstante, alguns indícios nos levam a suspeitar de que no momento a realidade pode ser bem diferente. Os anúncios que nos são exibidos, assim como os resultados de busca que obtemos na internet, e até mesmo as notícias veiculadas nos portais de grandes conglomerados jornalísticos e agregadores de notícias estão cada vez mais baseados em critérios automatizados de seleção: os chamados algoritmos de classificação estão personalizando o que chega até cada um de nós, e o mais grave é que não conhecemos e nem sequer somos alertados sobre os critérios adotados. É como se estivéssemos vivendo numa bolha de informações que proíbe a entrada de visões e perspectivas que divergem das nossas. A personalização é viável devido sobretudo às tecnologias de rastreamento da navegação na rede. O fato é que, para melhorar a relevância dos anúncios e garantir uma melhor experiência online ao usuário, anunciantes e empresas de serviços na internet, aí incluídos busca, redes sociais, e-mail e comércio eletrônico, todos fazem uso de tecnologias de rastreamento das atividades do usuário por meio da gravação de pequenos arquivos conhecidos como “cookies” no sistema de arquivos do usuário. A partir dos dados gravados nos cookies é possível construir um perfil “comportamental” e demográfico do usuário, e daí personalizar sua experiência online. O fenômeno da personalização da esfera pública já havia sido analisado por Cass Sunstein, influente jurista americano e hoje administrador do “Office of Information and Regulatory Affairs” do governo Obama, em seu livro “Republic.com” (Princeton Univ Press, 2002). Argumentando que a democracia depende de experiências compartilhadas e requer que os cidadãos sejam expostos a tópicos e idéias que não teriam escolhido antecipadamente, Sustein já revelava preocupação com os possíveis efeitos negativos trazidos pela internet com a facilidade de personalização do noticiário e a criação do que ele chamou de “Daily Me” (“Diário Eu”): “no ciberespaço, já temos a capacidade de filtrar tudo exceto o que desejamos ver, ouvir e ler”. Numa espécie de segunda edição reformulada sob a ótica da chamada “internet interativa”, Sustein em “Republic.com 2.0” (Princeton Univ Press, 2009) defende que, ao gravitar apenas em torno de blogs, podcasts e outras mídias sociais que reforçam suas próprias visões, o cidadão vai se privando de entrar em contato com perspectivas diferentes, e o sentido de “empoderamento” pessoal posteriormente associado a “liberdade” acaba alimentando o efeito “câmara de eco”, que substitui um sentido de unidade democrática com polarização acelerada. E essa tendência de se isolar em “casulos de informações” pode representar um dos efeitos mais perniciosos da internet sobre a esfera pública, argumenta Sunstein.
  • 2. Se há alguma legitimidade na preocupação de Sustein com o excesso de personalização que os próprios cidadãos estariam promovendo através do uso da tecnologia, imagine o cenário em que a personalização é feita por máquinas, algoritmos. Eli Pariser, ativista e coordenador da organização não-governamental americana de cunho político MoveOn.org, em palestra no portal TED.com intitulada “Beware online ‘filter bubbles’” (Março 2011) chama a atenção para o fato de que, à medida que as empresas da web buscam incessantemente adaptar seus serviços (aí incluídos noticiários e engenhos de busca) às preferências pessoais de cada um dos seus clientes, surge um perigoso efeito colateral: o cidadão se vê preso numa “bolha de filtros” e não é exposto a informações que poderiam questionar ou ampliar sua própria visão de mundo. E o resultado é que “os filtros de personalização servem a um tipo de autopropaganda invisível, nos doutrinando com nossas próprias idéias, amplificando nossos desejos por coisas que nos são familiares e nos deixando cegos aos perigos à espreita no território negro do desconhecido.” Como resultado de suas reflexões sobre as implicações sociais dessa bolha de filtros, Pariser, em seu livro “The Filter Bubble: What the Internet Is Hiding from You” (The Penguin Press HC, Maio 2011), chama a atenção para o fato de que, diferentemente do que se presume, os resultados de uma busca no engenho da Google não são os mesmos para todos os usuários, nem idênticos para o mesmo usuário em momentos distintos. Desde Dezembro de 2009 que o algoritmo da Google de ordenação dos resultados usa diversas variáveis (vide o post “Personalized Search for everyone” publicado no “The Official Google Blog” em 04/12/2009), mais de 50 segundo fontes seguras, que envolvem desde o tipo de computador que está sendo usado, a história de navegação associada àquele usuário, até o tipo de navegador através do qual a busca foi solicitada, incluindo o local associado ao endereço de IP da máquina do usuário. Assim, uma busca sobre “células tronco”, por exemplo, poderia produzir resultados completamente diferentes dependendo da posição de quem fez a busca, se entusiasta ou ativista contrário. Igualmente, uma busca por “prova das mudanças climáticas” pode levar a resultados bem distintos para um ambientalista, por um lado, e para um executivo de uma empresa de produção de energia considerada poluente, por outro lado. Isso não ocorre apenas nos engenhos de busca. Nas redes sociais a personalização é ingrediente fundamental na fidelização do cliente. Alguém que tem centenas de amigos no Facebook, por exemplo, vai ver as notícias de mural provenientes apenas dos mais chegados, pois o algoritmo por trás do serviço da Facebook se baseia nas interações, nos cliques e nas declarações de “curtir” realizadas pelo usuário para ser capaz de fazer uma previsão do que, e de quem, mais lhe interessa. Algo semelhante faz o Yahoo! News para descobrir qual notícia mais interessa ao usuário com aquele perfil, a Netflix para conseguir recomendar o filme que mais se encaixa nos gostos do cliente com aquele histórico, a Amazon para adivinhar o livro ou produto que interessaria a alguém com perfil semelhante, a Zappos para encontrar que tipo de sapato está dentro das preferências, etc. Dizendo-se preocupado em “garantir que esses algoritmos carreguem um sentido de vida pública, um sentido de responsabilidade cívica,” Pariser clama por um ativismo cibernético que busque forçar essas empresas a cumprir o que muitas delas declaram como slogan de missão e de boas intenções (“Do no evil”, isto é, “Não seja do mal”, é o motto da Google). Lembrando a máxima de Melvin Kranzberg (1917–1995), um dos fundadores da Society for the History of Technology, de que “tecnologia não é do bem nem é do mal, nem é neutra”, parece imperioso fazer o possível, seja por regulação
  • 3. governamental ou por pressão ativista não-governamental, que os melhores valores de uma sociedade aberta e democrática sejam refletidos no desenho da tecnologia. Dizendo-se esperançoso de que a internet ainda venha a cumprir a promessa da interconexão global da humanidade, Pariser reconhece que, embora se revelando perfeita no apoio à formação de grupos de pessoas com interesses comuns, será preciso muito ativismo para garantir que a internet seja de fato berço do verdadeiro espírito democrático de tolerância e convivência plural. Como diz Evgeny Morozov em sua resenha do livro de Pariser (“Your Own Facts”, New York Times, 10/06/2011), além do alerta para os perigos do excesso de personalização, “The Filter Bubble” merece aplausos pela advertência para o crescente poder dos intermediários da informação cujas regras, protocolos e motivações nem sempre são visíveis.