O esforço por técnicas mais avançadas de recuperação da informação tem origem nos estudos de Ciência da Informação e Biblioteconomia (library science), ávidos por obter resultados mais relevantes ao consultar acervos impressos ou digitais.
O uso de metadados na internet passou por uma lenta e desafiadora evolução desde a invenção da WWW, no início dos anos 90. Se compararmos a Web a uma auto-estrata em que os hiperlinks conectam as ruas, na web 1.0 a sinalização podia ser lida apenas pelos humanos, mas não pelas máquinas.
O desenvolvimento do XML permitiu um padrão de classificação de conteúdos através de categorias convencionadas, iniciando um processo de separação entre forma e conteúdo que caracteriza a web 2.0.
A partir de 1998, a discussão evoluiu para a construção de relações entre as categorias de dados, ampliando o conceito de
ontologia, que provem da antigas técnicas da biblioteconomia. Ganha forma, mais uma vez pelas mãos de Tim Berners-Lee e sua equipe, um novo conceito: "
Web Semântica".
Com a web funcionam como um grande banco de dados, a auto-estrada antes interpretada por motoristas agora é comandada por carros que identificam sozinhos as rotas e verificam as condições do trânsito, sempre mantendo informados (e desocupados) os motoristas.
Chegaremos assim na web3.0, um "conjunto de tecnologias que oferecem novos modos eficientes para auxiliar computadores na organização e extração de conclusões a partir dos dados publicados", segundo definição elaborada por John Markoff em
artigo no NYT.
Este texto foi baseado no artigo
A Smarter Web, de John Borland, no site da revista Techlnology Review. A segunda parte desta história será publicada na terça, 20/03.
Comentário: Inevitável pensar na resistência que motoristas-usuários mais experientes terão ao deixar os volantes de sua navegação sob o comando das ferramentas de busca e afins. Certamente voltaremos ao tema.
Atualização 20/03 - A
segunda parte do artigo aprofunda as explicações sobre o desenvolvimento da web Semântica e as dificuldades encontradas no aperfeiçoamento das ferramentas. Entre elas, um antigo dilema da Inteligência Articifial: a virtual impossibilidade das máquinas reproduzirem o pensamento humano, o que impediria o computador de mapear toda a ontologia que cerca uma palavra complexa como "casamento", por exemplo.
Para o professor Clay Shirky, da Universidade de Nova York, "people forget there are humans under the hood and try to treat the Web like a database instead of a social construct".
Poderia a web 3.0 entrar em colisão com a construção social em que se baseia a versão 2.0 da internet?