por Silvio Meira

o dilúvio informacional

o

image em 2010, a quantidade de informação gerada no planeta será duas vezes maior do que o armazenamento disponível para guardá-la. é isso que mostra o gráfico ao lado, do relatório especial da economist sobre administração de informação.

a princípio, tal conclusão é preocupante, até porque as duas curvas, a de disponibilidade de armazenamento e a de informação criada, tendem a se separar cada vez mais, inclusive no futuro muito próximo [e no presente, por incrível que pareça; espere até o último parágrafo…].

e a escala do gráfico está em em exabytes [são dezoito zeros, um quintilhão… ou um bilhão de gigabytes] e os valores envolvidos já estão na casa dos milhares de exabytes [ou zettabytes]. números que seriam estapafúrdios, ou impensáveis, se não estivessem ligados a coisas bem reais a nosso redor, como ligações telefônicas, fotografias digitais, registros em sistemas de informação das empresas, etc.

o gráfico, como se pode observar muito facilmente, diz que não temos armazenamento suficiente para tudo o que é gerado. mas vamos pensar: o que é, mesmo, o tal “tudo”? todas as conversas telefônicas do planeta, pra começar; todas as imagens de todas as câmeras, de segurança ou não; todos os cadastros de portaria de prédios [que são jogados fora a cada 90 dias]; todos os registros de compras que são feitos em todos os lugares, de camisinhas no posto de gasolina a um dos três koenigsegg trevita à venda em alguma loja radical, por US$5 milhões cada, passando por quase tudo entre os dois pontos; mais todos os livros digitados, todos os emeios, todas as contribuições às redes sociais… tudo, tudo o que, alguma hora, tem algum tipo de registro.

e isso é muito. só pra gente ter uma idéia, o relatório do economist diz que a cada hora o wal-mart realiza cerca de um milhão de transações [com os clientes], o que corresponde a 2.5 petabytes [ou 2.5PB; um peta tem quinze zeros, é o mesmo que um quatrilhão] de informação em seus bancos de dados, fonte de entendimento do consumidor. quer comparar? os 2.5PB de cada hora de transações do wal-mart equivalem a 167 vezes a informação depositada em todos os livros armazenados na biblioteca do congresso dos eua, e olha que são mais de 30 milhões de volumes… que caberiam em “meros” 15 terabytes de armazenamento.

o tema é importante e vamos voltar a discuti-lo aqui; o relatório do economist está neste link e a tabela abaixo, sobre as unidades de informação com que vamos ter que nos acostumar muito em breve [como assim, yottaBites?…] está neste outro. enquanto a gente não volta ao problema, pense nestes números: estima-se que criamos 150 exabytes de informação em 2005; ano passado, devem ter sido 1.200 exabytes; a inflação de dados está na casa dos 60% ao ano e crescendo. é a isso que [não só] o economist chama de dilúvio de dados e é a isso que teremos que nos acostumar. prepare seus filtros, pra não se afogar em bits.

image

PS: o large hadron collider, acelerador de partículas do CERN, perto de genebra, gera 40 terabytes de dados por segundo quando está realizando algum experimento. tal volume de dados é impossível de ser armazenado ou processado com as tecnologias de que dispomos atualmente. os cientistas encarregados dos experimentos capturam, armazenam e processam o que podem e o resto, simples e puramente, se perde por aí… mesmo assim, estima-se que o LHC armazenaria cerca de 15 petabytes de dados por ano se estivesse funcionando a todo vapor. o desafio científico é imenso e leva alguns a questionar o valor das teorias frente a imensidão de tal universo [e dilúvio] informacional. a gente volta ao assunto.

Sobre o autor

Silvio Meira

silvio meira é cientista-chefe da TDS.company, professor extraordinário da CESAR.school e presidente do conselho do portodigital.org

por Silvio Meira
por Silvio Meira

Pela Rede

silvio meira é PROFESSOR EXTRAORDINÁRIO da cesar.school, PROFESSOR EMÉRITO do CENTRO DE INFORMÁTICA da UFPE, RECIFE e CIENTISTA-CHEFE, The Digital Strategy Company. é fundador e presidente do conselho de administração do PORTO DIGITAL. silvio é professor titular aposentado do centro de informática da ufpe, fundou [em 1996] e foi cientista-chefe do C.E.S.A.R, centro de estudos e sistemas avançados do recife até 2014. foi fellow e faculty associate do berkman center, harvard university, de 2012 a 2015 e professor associado da escola de direito da FGV-RIO, de 2014 a 2017.

Silvio no Twitter

Arquivo