Computação invisível
19 de outubro de 2010Desde 1991 Stefan Jähnichen dirige o Instituto Fraunhofer de Arquitetura de Computadores e Tecnologia de Softwares (FIRST, na sigla em alemão), em Berlim, e é professor da Universidade Técnica (TU) de Berlim. Desde 2008 ele preside, ainda, a Sociedade Alemã de Informática (GI). Formado em Eletrotécnica, o cientista de 63 anos se propõe a aprimorar a qualidade e a confiabilidade dos softwares.
Em entrevista à Deutsche Welle, Jähnichen afirma que as tecnologias não devem ser um fim, mas um meio e que também deverão proporcionar alegria ao ser humano.
Deutsche Welle: Stefan Jähnichen, segundo sua provocadora tese, no futuro o computador, como o conhecemos, não mais existirá. O que o leva a afirmar isso?
Stefan Jähnichen: Acho que o computador não desaparecerá do dia-a-dia, mas se tornará cada vez menor e invisível. Não mais o perceberemos como um aparelho, pelo simples fato de que estará embutido em tudo, em todas as coisas que utilizamos. Um bom exemplo para isso é o iPad: você não o percebe como um computador, mas sim como um objeto de uso.
Você utiliza o iPad como uma máquina de lavar roupa. Acessa através dele a internet e encomenda dez camisas, sem vê-lo como um computador. Pois também não é preciso programá-lo, pequenos aplicativos se encarregam do trabalho. Tanto faz de onde vêm os dados, se fluem da internet ou se você os tem à disposição consigo. Não é mais o computador que fica num canto e que você precisa colocar expressamente em funcionamento.
Quer dizer que os objetos que nos rodeiam serão "inteligentes" no futuro?
Prefiro ser cuidadoso com o termo "inteligência". Mas sem dúvida haverá mais computadores integrados nos objetos. Talvez chips especiais que lhe digam, por exemplo, o que acontece, nesse momento, na geladeira. Acredito que vamos interconectar ainda mais todas as coisas entre si, e assim ganhar muitas funções de conforto, que talvez até nos agradem.
Que tipo de função o senhor tem em mente?
Por exemplo, poder ouvir minha música preferida em casa, sem ter antes que perder tempo procurando uma rádio: isso já é algum alívio. Ou pegar um objeto especial e aumentar com ele a calefação, simplesmente apontando para ela. Não preciso mais ir até a válvula e ficar mexendo ali: tenho algo na mão, que giro virtualmente, e a calefação reage.
Então o que mudará é a forma como transmitimos comandos a nossos computadores?
Absolutamente correto. Isso diz respeito às interfaces para todos os objetos de uso, que na verdade são computadores. Nesse campo ainda haverá muitas novas ideias, ainda vai acontecer muita coisa. Consigo também imaginar que precisaremos de uma forma muito simples de programação para o consumidor final. Por exemplo, a fim de definir certas funções utilitárias. É certo que já se tem isso hoje em dia – por exemplo, nos telefones celulares –, mas pode ser um pouco mais complexo, no futuro. E aí é preciso estar num nível que permita ao consumidor configurar um pouco essas funções. Essa será também uma tarefa para os próximos anos.
Para essa programação, se poderão usar comandos verbais, por exemplo?
Ainda não sei lhe dizer como ela será exatamente. É possível que funcione através de palavras, se nossos sistemas de reconhecimento de voz forem um pouco melhores. Aí não se precisará mais de teclado. Mas muita gente já é bem ágil com o teclado, hoje em dia.
Que outras possibilidades de comunicar ordens ao computador lhe ocorrem?
Esta, novamente, é uma pergunta muito, muito visionária. Vou-lhe dar mais um exemplo de aplicativos em que ninguém pensou. Há muitos anos tivemos um desenvolvimento bastante espetacular no Instituto Fraunhofer: fomos os primeiros a apresentar uma assim chamada brain computer interface. Procuramos medir sinais cerebrais e interpretá-los. Não se trata de leitura de pensamento, longe disso, trata-se apenas da interpretação de determinados padrões.
Quando, interpretando esses padrões, consigo, por exemplo, distinguir os movimentos do braço esquerdo dos do braço direito, então tenho um bit de informação: "está lá" ou "não está lá". O resultado é que, quando alguém pensa em sua mão direita, a seta do mouse vai para a direita; e quando pensa na mão esquerda, a seta se move para a esquerda. Estes são, obviamente, princípios para uma interface entre usuário e computador em que certamente ninguém havia pensado, até então. Nesse contexto, não quero expor tão publicamente as minhas ideias visionárias.
Isso quer dizer que, se cada movimento desencadeia uma reação do computador, então também aumenta a probabilidade de erro?
É claro que se trata de uma questão de precisão. Depende de quão exatamente eu, enquanto usuário, sou capaz de dirigir o processo. Uma visão desse tipo – agora vou realmente mencionar uma – está no setor medicinal, através de um melhor apoio aos cirurgiões, na medida em que interpretamos suas expressões faciais, seus gestos, seus movimentos. Como resultado, serão mostradas no monitor coisas bem específicas que o cirurgião queira ver: por ele ter modificado seu ângulo de visão, deduz-se que queira ver determinada coisa com mais nitidez.
Porém acredito que o ser humano tem que ter o controle. Caso eu deixe a cargo do computador a tomada de decisões, então cresce a insegurança, e a coisa fica muito perigosa.
Há setores da vida em que não iremos querer ver computadores embutidos em algum objeto, em 2020 ou 2025?
Cada um quer continuar levando sua vida particular como gosta, é óbvio. Ainda não estou certo se não prefiro ler um livro comum a lê-lo no iPad ou coisa semelhante. Simplesmente ainda não sei. As necessidades dos seres humanos são distintas, não há dúvida. E não devemos nos embrenhar em tecnologias, mas sim empregá-las onde nos são realmente úteis... e talvez também nos divertir um pouco.
Entrevista: Richard A. Fuchs (av)
Revisão: Carlos Albuquerque