MENU

Escrito por • 30/11/2012

carros sem motorista: sinal de que é preciso uma nova filosofia?…

tudo é software. este tem sido um dos meus mantras, há tempos. mas faz pouco tempo que software está por aqui, só meio século, na prática. pra comparar, em meio século a partir de 1444, a prensa de gutemberg se espalhou na europa, de oporto a constantinopla, dos países nórdicos à córsega. era o começo da revolução da informação e comunicação, a abertura do parênteses de gutemberg, que deu nisso tudo que estamos vendo aqui, agora.

image

é difícil imaginar que os agentes da disseminação da imprensa, na segunda metade do século XV, tivessem uma boa noção do impacto que estavam causando e, mais ainda, do que iriam causar. a lei de amara começou a valer muito depois, quando a economia e sociedade já estavam conectadas [em boa parte, por gutemberg] e as “impressões” de todos se multiplicavam. a lei de amara diz que nós tendemos a superestimar o impacto das tecnologias no curto prazo e a subestimar o mesmo impacto no longo prazo. para saber mais sobre a “lei”, leia este link.

voltemos a software, já que tudo é software. sempre foi. mas começou a se tornar aparente no deep blue vs. kasparov de 1997, quando o planeta descobriu que seu melhor enxadrista não era bom o suficiente para ganhar de um programa de computador. de lá pra cá, só ficou mais radical. pouco mais de dez anos depois, em 2009, um programa rodando em um smartphone [!] ganhou um torneio de grandes mestres em BsAs. e kasparov mudou as regras do jogo, propondo um “xadrez avançado” em que humanos jogam entre si, auxiliados por computador. em xadrez, humanos “já eram”. em jogos mais complexos que xadrez, como go, novas técnicas estão muito perto chegar no mesmo efeito, produzindo o que era impensável há 10 anos, programas que jogam no nível de profissionais.

o blog publicou uma série de três textos [reescrevendo humanos em software, neste link, que também leva a outros artigos relacionados ao tema], tratando de uma conjectura, segundo a qual…

toda civilização evolui até o ponto em que começa a escrever software.

isso tem consequência: a partir daí, e rapidamente, tal civilização chegará ao ponto em que começará a escrever pessoas em software. “escrever” jogadores de xadrez e go é só uma pequeníssima parte do exercício e da consequência. e não é o que de mais importante, relevante ou impactante está acontecendo agora.

isso porque há uma espécie de sequência, na informatização das coisas e do mundo ao nosso redor. a história da informação, em cinco grandes marcos…

image

…vai de DNA até software, que é onde acabamos de chegar. mas nosso nível de uso de software para realmente interferir na condução dos negócios e interações entre as pessoas e instituições ainda está nos estágios iniciais da transição…

image

…de usar software para processar o próprio software [software como fim…] para software como meio, para processar texto [web é texto, aqui, mas muito mais que texto: áudio, vídeo, dados…], “construir” ferramentas, tratar de funções cerebrais [programas que “jogam” são apenas brincadeiras, considerando as possibilidades] e manipular DNA, como software, em larga escala.

tudo, pois, como dissemos lá no começo, é software. e tudo o que foi dito até aqui é pra comentar um texto para o qual ana barroso me chamou atenção ontem.

na série reescrevendo humanos em software, se disse que o limite da história [ou seja… até que ponto reescreveremos humanos em software?] seria dado pelas seguintes condições: toda função humana para a qual 1. humanos não tenham vocação inata e/ou 2. haja perigo, para o humano que a exerce ou outros, que estão sob sua influência, e/ou 3. toda atividade que não faça uso de funções mentais superiores para ser exercida será reescrita em software. assim que for possível.

e não é que os problemas criados por esta situação já começaram a ser discutidos a sério? segundo este texto no new yorker, os carros sem motorista de google já podem ir pra rua [sem motorista, claro] na califórnia, nevada e flórida. e qual é a discussão? pense: será que os carros “automáticos” [o software neles, na verdade] vão tornar ilegal a direção humana em ambientes de risco [cidades!] e terão que tomar decisões que têm componentes éticos e morais?…

literalmente, ao invés de  atropelar a criança que invadiu a faixa de pedestres com o sinal verde para o carro, ele, o software, deve fazer uma manobra que vai levar a uma colisão com um poste e certamente ferir o usuário [do carro, você]?

essa seria a minha e a sua decisão, certamente. mas como vamos programar tal processo de tomada de decisão moral, baseada em princípios humanitários que nos são tão caros?…

como é que tal processo ético, moral, vai ser embutido em software? será, como querem alguns, que não devemos permitir tais máquinas, que são quase só software, nas ruas, fábricas, casas, voando…  até que saibamos como resolver estes problemas profundos, complexos, para os quais, tanto quanto para a ética e moral humanas, não há uma única ou trivial solução?…

a resposta parece ser, como no caso de humanos, que só será possível resolver tais conflitos na prática, com estas coisas por aí, fazendo o que têm que fazer. e nós –os humanos- teremos que mudar algumas das mais preciosas e complexas regras gerais da vida em sociedade.

literalmente, é muito provável que a introdução de software como agente social, no comando independente e por vontade própria de carros, aviões, aspiradores de pó, vigilantes [armados?]…, tomando decisões como a do exemplo acima, nos leve a redefinir parte considerável da filosofia.

segundo l. floridi [em Turing's three philosophical lessons and the philosophy of information, neste link], uma filosofia da informação seria…

 …o estudo das atividades informacionais que possibilitam a conceituação, construção, atribuição de significado e, talvez mais profundamente, o direcionamento moral da realidade, seja natural ou artificial, física ou antropológica.

ao invés de substituir antropocentrismo por tecnocentrismo, pra discutir e talvez decidir o que o carro deveria fazer na faixa de pedestres… é concentrar as formas de entender, propor, fazer e viver o mundo em informação. infocentrismo.

no mesmo número da philosophical transactions of the royal society em que saiu o artigo de floridi [junho de 2012], um texto de s. lloyd [A Turing test for free will, neste link] propõe uma variação radical do famoso teste de turing para inteligência: um teste para free will, para determinar se um sistema tem ou não vontade própria, se pode ou não, de forma independente, decidir se uma certa ação deve ser realizada ou não. como eu e você fazemos antes de uma ação qualquer.

lloyd diz que a imprevisibilidade computacional intrínseca dos processos de tomada de decisão é que nos dão a impressão de que temos o tal do free will, a liberdade de escolha de nossas ações. humanos não conseguem prever o que irão decidir, dado um conjunto de alternativas de ação, até que tenham decidido. e este é o caso sempre, independentemente do mundo ser determinístico ou não. e daí?

bem… daí ele propõe um teste de liberdade de escolha que decide se um sistema qualquer [como você ou eu] a tem ou não. o teste é simples e tem uma implicação: qualquer sistema que passe no teste sabe que tem free will. é aí onde voltamos para o carro na faixa de pedestre: ele terá –ou não- liberdade de escolha entre os dois acidentes? que método usará para escolher o menos ruim? feita a escolha, quem será o responsável pelas consequências? pensou na quantidade e o montante de ações judiciais contra google quando os seus carros [isto é, dele, google] se envolverem em acidentes… se estas perguntas não forem respondidas a contento?

tudo é software, já dissemos. ao mesmo tempo [e ainda bem] software é só meio.

há mais, bem mais do que linhas de código a escrever, há sistemas de pensamento inteiros que têm que ser desenvolvidos, problemas muito complexos [e básicos!] a resolver, antes que, alguma hora, possam ser codificados e se tornem, de uma forma ou de outra, software. o carro de google legalizado, na rua, levando seus passageiros para um lado e para outro, passando sempre incólume pela blitz da lei seca [mesmo movido a álcool] é só um pequeno sinal das grandes mudanças que software, com e dentro de ferramentas, vai nos obrigar a fazer.

imagine quando a gente começar a reescrever, a sério, cérebros e DNA…

Artigos relacionados

One Response to carros sem motorista: sinal de que é preciso uma nova filosofia?…

  1. Marcelo Pita disse:

    Sistemas de recomendação já são capazes, em princípio, de aprender nossas preferências, inclusive a dinâmica delas no tempo. Simulações poderiam ser usadas para ensinar self-driving cars de forma supervisionada a como melhor se comportarem em determinadas situações, inclusive as de menor perda de acordo com critérios humanos. Uma bateria de testes pós-treinamento elaborada por um órgão competente (Inmetro, no Brasil, por exemplo) daria o “selo de segurança” para o carro (ou software). As estatísticas globais mostrariam que a quantidade de mortes no trânsito foi absurdamente reduzida, inclusive as de crianças, então seria globalmente aceito. Mais para frente, pedestres (humanos, na verdade) fariam parte do sistema de trânsito, mais um agente rastreado com precisão, então as chances de colisão diminuiriam muito, em função de análises probabilísticas dos eventos condicionados ao estado corrente dos agentes (veículos, pedestres, semáforos, etc).