Índice:
1. O que é a Inteligência Artificial
2. História da Inteligência Artificial
3. Investigação na Inteligência Artificial Experimental
4. Cientistas / Estudos feitos / Perspectivas de um futuro: José Delgado; Miguel Nicolelis; Henry Markram; Hugo De Garis; Ray Kurzweil; John Chapin
5. Singularidade Tecnológica (Singularity)
6. Inteligência Artificial no Cinema: A.I. Artificial Intelligence (2001); Bicentennial Man (1999); Blade Runner (1982); I, Robot (2004); Matrix, The (1999); Metropolis (1927); Terminator 3: Rise of the Machines (2003); Filmes sobre o “Unabomber”
7. Tentativas de Impedir esta Evolução: Nome de código “Unabomb”; Biografia do “Unabomber”
8. Aplicações desta Tecnologia: Pelo Exército; Em Casas; Veículos; Construção de Andróides; Criação de Ciborgues; Planeamento
9. Ameaça para a Espécie Humana?
10. Cronologia da I.A. em Portugal
11. António Damásio
12. Links relacionados com IA
14. Bibliografia
1. O que é a Inteligência Artificial?
A inteligência artificial (IA) é uma área de pesquisa da ciência da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou simulem a capacidade humana de resolver problemas, pensar ou, de forma ampla, ser inteligente.
O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956. Os seus principais idealizares foram os cientistas Marvin Minsky, Herbert Simon, Allen Newell, John McCarthy, Warren MuCulloch e Walter Pitts, entre outros.
A construção de máquinas inteligentes interessa a humanidade há muito tempo, havendo na história um registro significante de autómatos mecânicos (reais) e personagens míticos, como Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.
Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras.
Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflituantes ou circulares.
2. História da Inteligência Artificial
Inteligência Artificial, esta ciência é a realização de um sonho do homem que remonta à Antiguidade Clássica.
No Renascimento, e com a expansão de um espírito prático e quantitativo, surge a mecânica e, com ela, (e com o aperfeiçoamento do mecanismo do relógio) uma nova concepção do homem.
Imprescindíveis para o avanço da I.A. foram os trabalhos dos matemáticos dos séculos XVII a XIX. No séc. XIX, surge a figura de Alan Turing mas só em 1956 é que a Inteligência Artificial começa a ser reconhecida como ciência.
Os desenvolvimentos em I.A. avançam lado a lado com a evolução dos computadores que, ao longo do tempo foram fazendo com que se começassem a encarar essas máquinas como inteligentes alterando mesmo o nosso conceito de inteligência e aproximando os conceitos ‘máquina’, tradicionalmente não inteligente da ‘inteligência’, capacidade antes consignada exclusivamente ao homem.
No entanto o seu objecto de estudo continua rodeado de uma certa bruma, no sentido em que o homem ainda não possui uma definição suficientemente satisfatória de inteligência e para se compreenderem os processos da inteligência artificial e da representação do conhecimento terão de se dominar os conceitos de inteligência humana e conhecimento.
Mas chegará o conhecimento através da manipulação de conceitos complexos ou através da percepção?
Devemos então fornecer à máquina uma avalanche de dados, teorias formais de ‘bom senso’, de crenças, de um universo simbólico superior ou, pelo contrário, basear o estudo da cognição no nível inferior da percepção e do controlo motor. A tendência geral foi no sentido de conciliar as duas teorias numa terceira teoria híbrida, segundo a qual a máquina seria capaz de raciocinar utilizando conceitos complexos, e de perceber o seu meio envolvente.
Os primeiros anos da IA foram repletos de sucessos – mas de uma forma limitada. Considerando-se os primeiros computadores, as ferramentas de programação da época e o fato de que apenas alguns anos antes os computadores eram vistos como objectos capazes de efectuar operações aritméticas e nada mais, causava surpresa o fato de um computador realizar qualquer actividade remotamente inteligente.
O sucesso inicial prosseguiu com o General Problem Solver (Solucionador de problemas gerais) ou GPS, desenvolvido por Newell e Simon.
Esse programa foi projectado para imitar protocolos humanos de resolução de problemas. Dentro da classe limitada de quebra-cabeças com a qual podia lidar, verificou-se que a ordem em que os seres humanos abordavam os mesmos problemas. Desse modo, o GPS talvez tenha sido o primeiro programa a incorporar a abordagem de “pensar de forma humana”.
Desde o início os fundamentos da inteligência artificial tiveram o suporte de várias disciplinas que contribuíram com ideias, pontos de vista e técnicas para a IA. Os filósofos (desde 400 a.C.) tornaram a IA concebível, considerando as ideias de que a mente é, em alguns aspectos, semelhante a uma máquina, de que ela opera sobre o conhecimento codificado em alguma linguagem interna e que o pensamento pode ser usado para escolher as cações que deverão ser executadas. Por sua vez, os matemáticos forneceram as ferramentas para manipular declarações de certeza lógica, bem como declarações incertas e probabilísticas. Eles também definiram a base para a compreensão da computação e do raciocínio sobre algoritmos.
Os economistas formalizaram o problema de tomar decisões que maximizam o resultado esperado para o tomador de decisões. Os psicólogos adoptaram a ideia de que os seres humanos e os animais podem ser considerados máquinas de processamento de informações. Os linguistas mostraram que o uso da linguagem se ajusta a esse modelo. Os engenheiros de computação fornecem os artefactos que tornam possíveis as aplicações de IA. Os programas de IA tendem a serem extensos e não poderiam funcionar sem os grandes avanços em velocidade e memória que a indústria de informática tem proporcionado.
Actualmente, a IA abrange uma enorme variedade de subcampos. Dentre esses subcampos está o estudo de modelos conexionistas ou redes neurais. Uma rede neural pode ser vista como um modelo matemático simplificado do funcionamento do cérebro humano. Este consiste de um número muito grande de unidades elementares de processamento, ou neurónios, que recebem e enviam estímulos eléctricos uns aos outros, formando uma rede altamente interconectada.
No processamento, são compostos os estímulos recebidos conforme a intensidade de cada ligação, produzindo um único estímulo de saída. È o arranjo das interconexões entre os neurónios e as respectivas intensidades que define as principais propriedades e o funcionamento de uma RN. O estudo das redes neurais ou o conexionismo se relaciona com a capacidade dos computadores aprenderem e reconhecerem padrões. Podemos destacar também o estudo da biologia molecular na tentativa de construir vida artificial e a área da robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. Outro subcampo de estudo é a ligação da IA com a Psicologia, na tentativa de representar na máquina os mecanismos de raciocínio e de procura.
Nos últimos anos, houve uma revolução no trabalho em inteligência artificial, tanto no conteúdo quanto na metodologia. Agora, é mais comum usar as teorias existentes como bases, em vez de propor teorias inteiramente novas, fundamentar as informações em teoremas rigorosos ou na evidência experimental rígida, em vez de utilizar como base a intuição e destacar a relevância de aplicações reais em vez de exemplos de brinquedos.
A utilização da IA permite obter não somente ganhos significativos de performance, mas também possibilita o desenvolvimento de aplicações inovadoras, capazes de expandir de forma extraordinária nossos sentidos e habilidades intelectuais. Cada vez mais presente, a inteligência artificial simula o pensamento humano e se alastra por nosso quotidiano.
3. Investigação na Inteligência Artificial Experimental
A inteligência artificial começou como um campo experimental nos anos 50 com pioneiros como Allen Newell e Herbert Simon, que fundaram o primeiro laboratório de inteligência artificial na Universidade Carnegie Mellon, e McCarty que juntamente com Marvin Minsky, que fundaram o MIT AI Lab em 1959. Foram eles alguns dos participantes na famosa conferência de verão de 1956 em Darthmouth College.
Historicamente, existem dois grandes estilos de investigação em IA: IA "neats" e IA "scruffies". A IA "neats", limpa, clássica ou simbólica. Envolve a manipulação de símbolos e de conceitos abstractos, e é a metodologia utilizada na maior parte dos sistemas periciais.
Paralelamente a esta abordagem existe a abordagem IA "scruffies", ou "coneccionista", da qual as redes neuronais são o melhor exemplo. Esta abordagem cria sistemas que tentam gerar inteligência pela aprendizagem e adaptação em vez da criação de sistemas desenhados com o objectivo especifico de resolver um problema. Ambas as abordagens apareceram num estágio inicial da história de IA. Nos anos 60s e 70s os coneccionistas foram retirados do primeiro plano da investigação em IA, mas o interesse por esta vertente da IA foi retomada nos anos 80s, quando as limitações da IA "limpa" começaram a ser percebidas.
Pesquisas sobre inteligência artificial foram intensamente custeadas na década de 1980 pela Agência de Projectos de Pesquisas Avançadas sobre Defesa (“Defense Advanced Research Projects Agency”), nos Estados Unidos, e pelo Projecto da Quinta Geração (“Fifth Generation Project”), no Japão. O trabalho subsidiado fracassou no sentido de produzir resultados imediatos, a despeito das promessas grandiosas de alguns praticantes de IA, o que levou proporcionalmente a grandes cortes de verbas de agências governamentais no final dos anos 80, e em consequência a um arrefecimento da actividade no sector, fase conhecida como O Inverno da IA. No decorrer da década seguinte, muitos pesquisadores de IA mudaram para áreas relacionadas com metas mais modestas, tais como aprendizado de máquinas, robótica e visão computacional, muito embora pesquisas sobre IA pura continuaram em níveis reduzidos.
4. Cientistas / Estudos feitos / Perspectivas de um futuro
Alguns defendem que este acontecimento irá proporcionar possibilidades inimagináveis. Outros crêem que este futuro cenário já é aterrador.
O que aumenta estes receios e esperanças é sabermos que em breve as capacidades dos computadores serão iguais á do cérebro humano. E será nesse momento que se irá dar um acontecimento muito especial. Seremos capazes de mudar a nossa natureza e criar uma nova espécie de seres. Para quem está por dentro do assunto, esse momento tem um nome, chama-se “Singularity”
As sementes do “Singularity” (Singularidade Tecnológica), remontam a acontecimentos passados numa longínqua praça de touros em Espanha. Em 1964 foi feita uma experiência que alertou o mundo para o crescente poder da ciência sobre o cérebro. O homem que a realizou é o pioneiro neurocientista, José Delgado.
O cérebro sempre foi considerado a ultima fronteira, a nossa parte impenetrável. Sabemos agora que podemos entrar no cérebro e ler pensamentos.
José Delgado - Neurocientista
“Há muitos anos estávamos a investigar as áreas do cérebro, e um amigo nosso perguntou se conseguíamos inibir a agressividade dos touros, animais geneticamente criados ao longo de séculos para terem comportamentos combativos e corajosos.”
José Delgado aceitou o desafio, num acto de feitiçaria científica quis controlar a natureza dos touros.
O Touro que estava na arena estava a investir sobre as pessoas que estavam na arena, depois o touro parou de investir, deixou de se comportar agressivamente e as pessoas puderam-se aproximar dele sem correrem perigo. Nos bastidores, o Dr. Delgado tinha um rádio-transmissor, e o touro parava à sua ordem de comando.
Mas o domínio do cientista sobre o touro não foi produto de magia, foi a aplicação de anos de trabalho no campo da descodificação dos misteriosos sinais eléctricos emitidos pelo cérebro. Através da implantação de eléctrodos nas áreas do cérebro do touro, responsáveis pela agressão e pelo movimento, o professor Delgado poderia transmitir sinais de rádio que teoricamente domesticassem o touro.
Mas depois decidiu que já que sabia alguma coisa sobre corridas de touros, ele próprio faria a experiência. Neste momento, o Professor Delgado enfrentou o touro. Mais uma vez, o animal volta-se à sua ordem de comando. O touro tinha sido domesticado pelos sinais rádio captados pelos eléctrodos colocados no sei cérebro.
Um dos jornalistas presentes fez a José Delgado a seguinte pergunta:
“Tinha a certeza de que o touro iria parar quando carregasse no botão?”
A qual José Delgado respondeu:
“Um cientista deve sempre ter fé na ciência. Eu tive-a. O animal parou.”
O touro estava de boa saúde e ele também, não houve problema nenhum.
O professor Delgado, não fez nenhum espectáculo, estava a tentar perceber a mecânica das nossas mentes, uma busca que o levaria a experiências extraordinárias.
No momento em que o professor Delgado revolucionava a neurociência, um outro cientista estava a iniciar a sua viagem em direcção ao “Singularity”, Gordon Moore, um dos fundadores da fábrica de chips “Intel”, observaram um estranho padrão na sua nova industria. Dado que a capacidade dos computadores duplicava todos os anos, Moore convenceu-se que este crescimento sem precedentes iria continuar indefinidamente. Muita gente já utilizou a “Lei de Moore” nos cada vez mais sofisticados jogos de computador. Mas muito para além desta ideia aparentemente simples, um homem descortinou profundas implicações para todos nós.
Miguel Nicolelis - Professor da Universidade de Duke, USA
“Acredito os meus netos poderão começar a aprender o que realmente somos quando forem postas a descoberto verdades surpreendentes sobre o funcionamento do cérebro.”
Miguel Nicolelis gosta de lhe chamar o “Ponto de viragem da sua vida” ao momento mais importante da sua carreira, e nenhum outro momento será igual, tendo revelado o momento em que uma área totalmente nova se revelou.
O professor Nicolelis nesse ponto da sua carreira tinha ligado o cérebro de um macaco ao computador, quando o macaco movia o cursor, o professor usava os dados do seu cérebro para que ele move-se um braço robotizado, e ao fazê-lo, demonstrou que os pensamentos do maçado podiam ser lidos. Mas o macaco estava prestes a virar o feitiço contra o feiticeiro.
Subitamente o seu macaco, uma fêmea chamada Aurora, deixou de mover o seu braço, e quando viram o que estava a acontecer, fez-se um profundo silêncio na sala porque os cientistas presentes perceberam que naquele preciso momento estava a dar-se um acontecimento histórico.
O macaco tinha percebido que não precisava de mover o seu braço para jogar, e que podia controlar o braço robotizado apenas com o pensamento.
O cérebro tinha-se libertado do corpo, e passou a poder agir directamente sobre o mundo, apenas através do que produz a cada segundo, ou seja, a actividade eléctrica podia agora ser aproveitada para gerar movimento, portanto o cérebro tinha deixado de precisas do corpo.
O professor Nicolelis acabara de demonstrar como a tecnologia podia melhorar as capacidades dos seres humanos, mas esta descoberta contém uma perspectiva igualmente sombria. Grande parte do apoio dada á tecnologia do interface “Cérebro – Máquina”, provém de um braço secreto do governo na periferia de Washington.
Para os observadores trata-se de apenas mais um sinal da natureza ambivalente da tecnologia.
Outros cientistas está a tentar estabelecer um interface da tecnologia com cérebros muito mais próximos dos nossos, o que para muitos implicou a transposição dos limites aceitáveis da ciência. O registo de seres dotados de consciência e inteligência levada.
Para o professor Miguel Nicolelis, o segredo da mente humana reside no estudo dos nossos parentes mais próximos. Através da implantação de eléctrodos no cérebro de macacos, o professor Nicolelis consegue ler os seus pensamentos.
Desde 2002 que fazem um registo diário da actividade deste cérebro e todos os dias aprendem alguma coisa nova sobre o seu modo de funcionamento. Podendo ver células a acender-se de cada vez que o animal mexe o braço, podendo ver a actividade das células. Na verdade encaram a construção do código como um código oculto, não têm a chave do código, não sabem por onde começar, nem sabem o significado dos símbolos. Mas uma vez decifrando essa “chave”, conseguirão ler toda a informação que têm vindo a registar.
Com uma experiência inovadora e polémica, o professor Nicolelis está decidido a decifrar esta linguagem oculta. Primeiro treinou um macaco num jogo de computador, utilizando um cursor para chegar a um alvo em movimento. Enquanto o macaco manuseava o joystick, o Professor Nicolelis registou a actividade das centenas de células do cérebro envolvidas nestes movimentos complexos. Depois traduziu os registos biológicos para a linguagem do computador, o que lhe permitiu a realização de um feito extraordinário. Ligou o cérebro de um macaco a um computador, que movia um braço robotizado, o computador lia os movimentos do macaco, e fazia com que o braço robotizado se move-se exactamente da mesma maneira que o do macaco. O Professor Nicolelis utilizou os pensamentos de outro ser vivo para controlar uma máquina, demonstrando que se pode ler a linguagem aparentemente opaca do cérebro.
Não só no cérebro dos primatas como o nosso próprio cérebro, vamos descobrir como é que o nosso cérebro trabalha apenas através de sons e imagens. Esse é o alfabeto primordial da mente. As nossas memórias, os nossos pensamentos futuros, as nossas esperanças, o nosso amor, as nossas mágoas, está tudo lá encaixado nessa “embalagem”.
A tecnologia com que o professor Nicolelis descodificou a mente de um macaco, está agora a começar a ser aplicada toda a informação que recolheu aos seres humanos.
Henry Markram - Professor do Instituto Cérebro Mente, Lausana, Suiça.
“Acredito os meus netos vão poder descarregar os seus pensamentos, armazenar as suas memórias e interagir com máquinas.”
A descoberta desse código do cérebro é chamado “Santo Graal” da neurociencia. O código secreto de que o cérebro faz para converter o mundo físico no mundo eléctrico, esse segredo esta na descoberta desse programa. Para atingir esse objectivo, o professor Markram dirige a mais ambiciosa tentativa de reproduzir um cérebro numa máquina.
Usando um cérebro de um rato jovem, os cientistas retiram certas secções do cérebro e colocam-nas no microscópio para poder começar a registar a actividade dos neurónios. O professor estuda a parte do cérebro dos ratos que também se encontra nos cérebros humanos, e copia-o célula a célula. Numa secção de meio milímetro de diâmetro existem entre 8 a 10 mil neurónios. Registam a actividade dos neurónios para saber como funcionam os micro circuitos dessa região, depois utiliza uma micro pipeta para chegar aos neurónios e poder avançar.”
Quando são destruídas, as células libertam uma pequena descarga eléctrica, através da qual comunicam umas com as outras. Esses cientistas já registam essas descargas á 15 anos. Assim que os dados de cada célula são armazenados, são enviados para o que virá a ser o cérebro virtual.
O instituto onde o professor trabalha tem um super computador chamado “Blue Gen”, que é constituído por mais de 8 mil processadores. Essa enorme maquinaria é um minúsculo pedaço de cérebro. Neste momento para simular um cérebro humano, é preciso qualquer coisa como um campo de futebol cheio desses processadores. O modelo só estará completo pelo menos em 2009, e só depois o professor Markram poderá accionar a simulação. O professor acredita que nesse momento irá começar a descobrir a mente e pôr a descoberto o potencial para uma nova espécie.
Saber como é que o cérebro constrói a percepção do mundo, quando o conhecermos, poderemos ser capazes de começar a interceptar e a descarregar sinais do cérebro e reconstruirmos tudo o que virmos. A reconstrução de sonhos ou pensamentos, não é coisa que seja impossível nos próximos 10 ou 20 anos.
Hugo De Garis - Professor da Universidade de Wuham, China
“Receio verdadeiramente pelos filhos dos meus filhos, se estiverem vivos, poderão ser apanhados ou mesmo destruídos numa guerra tecnológica.”
Hugo De Garis é um construtor de cérebros, ganha a vida a construir cérebros artificiais e é essa a sua área de investigação. Isso dá-lhe uma capacidade de previsão do que vai acontecer neste século no que respeita aos cérebros artificiais, e assume que está muito preocupado. Como médico está profundamente consciente das fabulosas tecnologias que ainda irão aparecer neste século, e que permitiram construir máquinas com capacidades triliões de vezes superiores á do ser humano.
Este professor concebeu algumas das mais complexas redes neuronais do mundo, computadores que desenvolvem a sua própria inteligência, neste tipo de computadores o professor vê os primórdios de máquinas cada vez mais poderosas, a que deu o nome de “Artilect”. Os “Artilect”, ou “Intelectos Artificiais”, são máquinas profundamente inteligentes e parecidas com Deus, que impacto é que terão? Que sentimentos terão para connosco como uma espécie inferior?
A política global deste século vai ser dominada pela questão de a humanidade ver ou não, construir os “Intelectos Artificiais”.
Na opinião do Professor a perspectiva da criação dos “Intelectos Artificiais” irá dividir a sociedade entre os que os receiam e os que são a seu favor.
Podem defender que a construção dos “Intelectos Artificiais” é a coisa mais fantástica que a humanidade pode fazer porque em certa medida, é como que um espécie de construção de um Deus.
A seu tempo, esta divisão irá levar a uma guerra como nenhuma outra. Se houver uma guerra nos finais do século XXI, estaremos a falar, não de milhões, mas de biliões de mortos, e por isso Hugo de Garis criou a palavra, “Gigamorte” (Gigadeath).
Ray Kurzweil - Kurzweil Technologies
“Os computadores são um bilião de vezes mais poderosos do que há 25 anos, e daqui a 25 anos serão um bilião mais poderosos do que agora são.”
Chama-se Ray Kurzweil, é inventor e visionário.Segundo Kurzweil a “Lei de Moore” aplica-se tanto a ciência de computadores com á neurociência. Acredita que dentro em breve a nossa compreensão do cérebro humano será total.
“Daqui a 25 anos teremos dominado de facto a inteligência humana, bem como o “hardware” e o “software” necessários para recrear a inteligência humana numa máquina.”
Kurzweil foi um dos primeiros a fazer um computador que conseguisse ler. Se a sua última previsão estiver certa, o cérebro humano será totalmente compreendido. Quase no mesmo momento em que os computadores adquirirem capacidades iguais.
É este culminar de acontecimentos que irá conduzir ao “Singularity” (Singularidade)
Será uma época da história humana que a sociedade irá sofrer um profunda transformação, por intermédio da criação de uma inteligência não biológica, máquinas cujas capacidades em última análise serão biliões de vezes superiores á dos seres humanos de hoje. Vamos co-habitar com tudo isto, o que irá reforçar o potencial humano.
A data que Kurzweil previu para a criação de uma nova versão humana, é o ano de 2029. Enquanto os computadores marcham silenciosa e eficazmente em direcção a esta data, a neurociência ainda tem um polémico caminho a percorrer.
John Chapin - Professor da Univesidade Pública de Nova Iorque, USA
“O cérebro é a coisa mais importante que temos, e é também a coisa de que sabemos menos. Vai revelar-se devagar de modos diferentes, tal como as experiências revelam pouco de cada vez.”
Para desvendar os mistérios da mente, os cientistas utilizam métodos cada vez mais extremos. O Dr. John Chapin estuda as mentes dos ratos á mais de 20 anos. O culminar da sua pesquisa é um interface único entre o animal e a máquina. Os ratos por controlo remoto. Guiando-os através de sinais enviados sem fios para o seu cérebro, através de um computador portátil. Além disso têm uma câmara no seu dorso para poderem ver o mundo como os ratos o vêm.
O Dr. Chapin controla o poder da decisão do rato através das ordens que envia por computador para o seu cérebro. Um sinal de rádio enviado por computador estimula as áreas do cérebro que estão ligadas ás vibríças. Quando estimulam as vibriças do lado esquerdo, o rato vira á esquerda, quando estimulam as do lado direito o trato vira á direita. O rato tem o poder de escolha, mas se fizer o que lhe pedirem, é recompensado com um estímulo no centro de prazer do cérebro. Ao dominar a mente de um rato, o Dr. Chapin acredita que está a dar um pequeno passo no sentido de desvendar o enorme desafio que o aguarda.
5. Singularidade Tecnológica (Singularity)
O que é a Singularidade Tecnológica:
Singularidade tecnológica é a denominação dada a um evento histórico previsto para o futuro no qual a humanidade atravessará um estágio de colossal avanço tecnológico num curtíssimo espaço de tempo.
Baseando-se em avanços nas áreas da informática, inteligência artificial, medicina, astronomia, nanotecnologia, genética e biotecnologia, muitos estudiosos acreditam que nas próximas décadas a humanidade irá atravessar a singularidade tecnológica e é impossível prever o que acontecerá depois deste período.
A aceleração do progresso científico e tecnológico tornou-se, nos últimos 300 anos, a característica mais marcante da história da humanidade. Desde o surgimento da ciência com Galileu Galilei, Isaac Newton e Leibnitz profundas mudanças políticas e económicas ocorreram em todos os países. Tais mudanças se fazem mais notáveis nos últimos 30 anos com a explosão da era digital e do capitalismo financeiro.
Ainda não existe consenso sobre quais seriam os agentes responsáveis pela singularidade tecnológica, alguns acreditam que ela decorrerá naturalmente, como consequência dos acelerados avanços científicos, outros acreditam que o surgimento iminente de super computadores dotados da chamada super inteligência será a base de tais avanços - argumenta-se em favor disso que somente com uma inteligência superior a humana poderíamos ter avanços científicos e tecnológicos tão rápidos e importantes. Há também quem acredite na integração homem-computador para o surgimento da super inteligência, mas a tecnologia necessária para tal pode estar mais distante de ser alcançada do que a inteligência artificial.
Vários cientistas, entre eles Vernor Vinge e Raymond Kurzweil, e também alguns filósofos afirmam que a singularidade tecnológica é um evento histórico de importância semelhante ao aparecimento da inteligência humana na Terra. Outros, mais levianos, afirmam que a singularidade tecnológica é para o século XXI o que a revolução industrial foi para o século XVIII ou simplesmente que a singularidade tecnológica é na verdade a quarta revolução industrial.
6. Inteligência Artificial no Cinema
Á muito tempo que o cinema e a ficção-científica abordam temas relacionados ao fim do mundo, mas a singularidade tecnológica como ameaça global é algo bem mais recente. Um exemplo disso é o filme “Matrix”, lançado em 1999, que apresenta uma versão bastante elaborada de como poderá ocorrer a singularidade tecnológica. No filme uma guerra entre homens e máquinas inteligentes é travada entre 2094 e 2102 com a derrota e consequente escravização da humanidade. De forma semelhante, o filme “O Exterminador do Futuro 3: A Rebelião das Máquinas” aborda uma longa e inacabada guerra entre homens e máquinas.
Por outro lado, alguns filmes, como, por exemplo, “Eu, Robô”, são mais cautelosos e abordam uma vitória humana sobre a questão. Outros ainda, como “O Homem Bicentenário”, mostram que a inteligência artificial pode ser totalmente benéfica e que a singularidade tecnológica pode não trazer perigos potenciais à humanidade. Contando uma história que dura 200 anos, de um Robô que pretende ser humano.
Filmes mais conhecidos que retratam o tema da I.A.:
A.I. Artificial Intelligence (2001)
Realizador: Steven Spielberg
Género: Ficção Científica / Drama
País de Origem: EUA
Sinopse: Num mundo futuro dominado pelo aquecimento global e temido pelos avanços científicos, os humanos partilham todos os aspectos das suas vidas com sofisticados companheiros robots chamados Mechas. Mas quando um avançado protótipo robô-criança chamado David (Haley Joel Osment) é programado para demonstrar amor incondicional, a sua família humana não está preparada para as consequências. De repente, David encontra-se por sua conta num mundo estranho e perigoso. Ajudado por um "RufiaMecha" (Jude Law), David embarca numa espectacular jornada para descobrir o surpreendente segredo da sua existência.
Bicentennial Man (1999)
Realizador: Chris Columbus
Género: Ficção Cientifica / Drama
País de Origem: EUA / Alemanha
Sinopse: Andrew é um robô comprado como um equipamento doméstico, programado para desempenhar pequenas tarefas. Surpreendentemente começa a sentir emoções e a desenvolver pensamentos próprios, fazendo com que a família Martin descubra que não possui um robô vulgar. A partir daí decide ir em busca da sua espécie, apaixona-se por um humano, e pretende transformar-se e ser considerado um humano.
Blade Runner (1982)
Realizador: Ridley Scott
Género: Acção / Ficção Cientifica / Drama
País de Origem: EUA
Sinopse: No início do século XXI, uma grande empresa desenvolve um robot que é mais forte e ágil que o ser humano e possui a mesma inteligência. São conhecidos como “Replicantes” e utilizados como escravos na colonização e exploração de outros planetas. Mas, quando um grupo dos robots mais evoluídos provoca um motim, numa colónia fora da Terra, este incidente faz os Replicantes serem considerados ilegais, sob pena de morte. A partir de então, polícias de um esquadrão de elite, conhecidos como Blade Runner, têm ordem de atirar para matar em Replicantes encontrados na Terra, mas tal acto não é chamado de execução e sim de remoção. Até que, em Novembro de 2019, em Los Angeles, quando cinco Replicantes chegam à Terra, estes Replicantes têm o desejo de ser humanos, um ex-Blade Runner (Harrison Ford) é encarregado de caçá-los. Havendo outra parte na história, em que esse Blade Runner apaixona-se por uma Replicante.
I, Robot (2004)
Realizador: Alex Proyas
Género: Ficção Científica / Thriller
País de Origem: EUA
Sinopse: No ano 2035, os robots estão programados para viverem em harmonia com os humanos e fazerem parte do seu dia a dia. Quando um brilhante cientistca da U.S. Robotics Corporation aparece morto, o detective de Chicago, Del Spooner (Will Smith) é chamado para a investigação do crime. Auxiliado por uma psicóloga de robots, a Dra. Susan Calvin (Bridget Moynahan), o detective Spooner descobre que o principal suspeito do caso poderá ser um robô. Mas quando Spooner se aproxima da verdade, ele vê-se apanhado numa corrida pela própria vida. Com o tempo a escassear, uma ainda maior ameaça, que desafiará toda a existência humana começa a emergir.
Estes robôs são programados para obedecer a 3 leis:
Lei 1: O Robô não deverá ferir nenhum ser humano, ou deixar ele se ferir.
Lei 2: O Robô deverá obedecer às ordens dadas pelo seu dono a não ser que essas ordens conflituem com a lei 1.
Lei 3: O Robô deve proteger a sua própria existência a não ser quando essa protecção conflituar com as leis 1 ou 2.
Criando assim um circulo perfeito de protecção.
Matrix, The (1999)
Realizadores: Andy Wachowski e Larry Wachowski
Género: Thriller
País de Origem: EUA
Sinopse: Percepção: O nosso mundo é real. Realidade: Esse mundo é uma mentira, uma elaborada fraude concebida por máquinas poderosas de inteligência artificial que nos controlam. Após a humanidade ter desenvolvido a inteligência artificial em máquinas, as máquinas revoltaram-se, tendo capacidade de armas, escravizaram toda a humanidade, mantendo as pessoas num sonho. Mantendo as pessoas vivas, conseguiam recolher a energia que o corpo humano é capaz de produzir, utilizando as maquinas essa energia para viver. Keanu Reeves e Laurence Fishburne lideram a batalha para libertar a humanidade em Matrix.
Metropolis (1927)
Realizador: Fritz Lang
Género: Ficção Científica / Drama
País de Origem: Alemanha
Sinopse: No futuro, a sociedade de Metropolis está dividida em dois grupos: os trabalhadores, que vivem debaixo de terra e fazem as máquinas funcionar e a classe dominante que vive à superfície. Os trabalhadores são dirigidos por Maria que quer encontrar um mediador entre a classe dominante e os trabalhadores, pois ela acredita que entre o cérebro e os músculos é necessário um coração. Maria encontra Freder Fredersen, o filho do senhor de Metropolis, Joh Fredersen e Apaixonam-se. Entretanto, Joh decide que os trabalhadores já não são necessários a Metropolis e usa um robô para fingir que é Maria e fomentar a revolução entre a classe trabalhadora para a eliminar.
Terminator 3: Rise of the Machines (2003)
Realizador: Jonathan Mostow
Género: Ficção Científica/Acção/Thriller
País de Origem: EUA/Reino Unido/Alemanha/Japão
Sinopse: Passaram dez anos desde que John Connor (Nick Stahl) ajudou a evitar o Dia do Juízo Final e a salvar a humanidade da destruição. Agora vive à margem da sociedade, sem que haja registo da sua existência. Até que das sombras do futuro surge T-X (Kristanna Loken), a mais sofisticada e bela máquina mortífera de sempre da Skynet, com a missão de acabar com a vida de Connor. Agora a única esperança de sobrevivência de Connor é o Exterminador (Arnold Schwarzenegger)... Juntos têm de triunfar sobre a tecnologia superior de T-X e evitar a ameaça do Dia do Juízo Final ou enfrentar o apocalipse e a queda da civilização tal como a conhecemos. Esta situação é devida ás máquinas se terem revoltado e agora estarem em guerra com a raça humana.
Existem 3 filmes sobre o “Unabomber”
Filme sobre o terrorista “Unabomber”, um matemático sobredotado, eremita e tecnófobo chamado Ted Kaczynski, que iniciou nos Estados Unidos uma cruzada solitária contra a evolução tecnológica, fabricando bombas artesanais numa cabana nas montanhas do estado de Montana, e enviando-as a pessoas escolhidas pelas suas actividades no campo da investigação tecnológica. Antes de ser capturado, o “Unabomber” causou três mortos e 29 feridos com os seus pacotes e conseguiu publicar um «Manifesto» na imprensa de grande circulação. Kaczynski foi condenado a prisão perpétua.
Unabomber: The True Story (1996)
Unabomber: The Gobetween (1995)
Daz Netz (2004) (The Net), Documentário Alemão/Inglês com a participação e entrevista a Ted Kaczynski.
7. Tentativas de Impedir esta Evolução
Há quem diga que a guerra já começou, em 1978 um envelope bomba explodiu na “Northwestern University”, perto de Chicago. O que parecia ser um acto aleatório, revelou-se nas palavras do bombista, um objectivo singular.
Nome de código: UNABOMB
(assim conhecido porque as suas primeiras vítimas foram universitários)
Manifesto "Unabomber”
“A revolução industrial foi um desastre para a raça humana. Defendemos uma revolução contra o sistema industrial para destruir a base tecnológica da sociedade. Até o sistema industrial ser totalmente aniquilado, a destruição do sistema deve ser o único objectivo dos revolucionários. Não podemos eliminar os aspectos negativos da tecnologia e ficarmos apenas com as partes boas. O sistema não pode ser reformado de modo a conciliar a liberdade com a tecnologia. A única saída é a eliminação de todo o sistema tecnológico industrial.”
Descobriu-se em algumas das cartas que o “Unabombar” gravava nas bombas as letras “F” e “C”, o que segundo algumas opiniões queria dizer “Abaixo os Computadores” (F*ck Computers).
A arma utilizada é uma “Encomenda-Bomba”. Ao longo do tempo que decorriam estes ataques, o FBI tinha muitas pistas, e retratos desenhados com a informação que algumas pessoas davam. A identidade do bombista era desconhecida, mas o seu objectivo era evidente.
Em 1995 o “Unabomber” tinha morto 3 pessoas e ferido outras 29 na sua guerra contra a tecnologia. Mas o fim da sua actividade terrorista estava á vista, O bombista propôs cessar os atentados a troca da publicação do seu Manifesto.
E o significado das letras “F” e “C” foi esclarecido, “Clube da Liberdade” (Freedom Club), assim como a identidade do bombista.
O estilo de escrita foi reconhecido como o de um ex-aluno da Universidade de Harvard, USA, e ex-professor de Matemática, Ted Kaczynski. O seu rasto foi seguido pelo FBI até uma cabana no meio da floresta de Montana, USA. Com receio de minas, os agentes do FBI entraram lentamente e cuidadosamente na aldeia próxima da cabana do antigo professor. Kaczynski vivia aí esde a época em que abandonou a sua promissora carreira académica em 1969. Por mais de 20 anos viveu ali sem água corrente e sem electricidade, tendo aí desenvolvido a sua teoria conspirativa contra a progressiva dependência da sociedade face á tecnologia.
Sendo considerado um Louco Psicopata até aos dias de hoje. Mas á quem não ficará surpreendido se no futuro o “Unabomber” for considerado como um herói.
Os advogados de Kaczynski tentaram alegar insanidade mental, Kasinsky admitiu os assassinatos, mas recusou a insanidade mental.
É numa cela como esta que Ted Kaczynski irá passar o resto da sua vida.
Continuação do Manifesto “Unambomber”
“No passado, a natureza humana impôs certos limites ao desenvolvimento das sociedades. As pessoas não podiam passas de determinados limites. Mas, hoje em dia, esse estado de coisas poderá estar a alterar-se, porque a tecnologia moderna está a desenvolver maneiras de modificar os seres humanos.”
Biografia
Dr. Theodore John Kaczynski (Chicago, 22 de Maio de 1942), mais conhecido como Unabomber, é um matemático norte-americano, escritor e activista político, condenado por terrorismo.
O Unabomber foi um matemático que abandonou a sua carreira e afastou-se da vida social moderna para viver como um eremita numa cabana isolada, situada num espaço selvagem. Ele ficou famoso ao conseguir que o seu manifesto, intitulado “A sociedade industrial e o seu futuro”, fosse impresso através do Washington Post e New York Times, após vários anos de ataques a bombas por correio, maioritariamente a cientistas informáticos, geneticistas e outros tecnocratas de renome, também referidos, por entre aqueles que partilham a linha politica do Unabomber, como sendo os "arquitectos da Nova Ordem Mundial".
Sob a ameaça de voltar a atacar e na esperança de que algum indício presente no estilo de escrita do autor pudesse conduzir à sua prisão, o manifesto foi impresso em 19 de Setembro de 1995 com o aval das autoridades. Nele, o Unabomber denuncia o desenvolvimento da sociedade industrial como sendo uma ameaça à liberdade humana e diz que a acção imediata contra ela é necessária.
8. Aplicações desta Tecnologia
• Pelo Exército
O edifício DARPA, um acrónimo que significa Agência de Projectos de Investigação Avançada de Defesa (Defence Advanced Research Projects Agency). Tem como filosofia a criação de projectos muito arriscados, no sentido em que a probabilidade de que possam resultar é muito pequena, mas se resultarem, o salto positivo é enorme.
Para a DARPA, o trabalho dos neurocientistas constitui a esperança de uma futura vantagem militar. Têm a seu cargo pesquisas que resultem em novas tecnologias que mantenham a América na vanguarda. Tendo já alguns projectos para a utilização da tecnologia da Inteligência Artificial.
Mas nem todos os palpites da DARPA resultaram bem. Um dos mais divertidos projectos foi a chamada “Bomba Gay”, cujo conceito era o de uma bomba fabricada com determinados produtos químicos que penetrassem no cérebro e aumentassem o apetite sexual de tal maneira que os soldados estivessem apenas ocupados a violarem-se uns aos outros em vez de contra-atacarem. Mas o projecto acabou por ser abandonado.
• Em Casas
É corrente chamar inteligentes às casas que possuem características capazes de tornar a vida mais simples a quem nelas habita. As casas inteligentes estão agrupadas em cinco categorias principais:
- Segurança
- Economia
- Conforto
- Ecologia
- Integração
Para cada indivíduo, em cada momento, terão naturalmente importâncias diferentes em cada uma das categorias. No entanto, às cinco enunciadas, junta-se a capacidade de adaptação das casas, tornando-as evolutivas com a tecnologia, e, essencialmente, com as necessidades e as preferências de quem as habita.
A gestão dos espaços interior e exterior com a adequação do controlo de iluminação, estores, aquecimento, rega, temperatura da água da piscina, etc., às condições atmosféricas ou às ordens remotas via Internet ou telemóvel começa já a ser hoje uma realidade de muitas habitações em Portugal.
• Veículos
A criação de carros que nos possam levar do ponto A ao ponto B, em segurança, é uma perspectiva que cativa qualquer um. A possibilidade de haver uma condução segura entre todos os veículos na estrada. E podendo assim o condutor de um carro ter o seu próprio transporte mas rentabilizar todo o tempo perdido na condução, aproveitando assim essas horas desperdiçadas diariamente.
• Construção de Andróides
A aplicação em máquinas desenhadas parecidas com o homem, para nos ajudarem no dia a dia. A palavra andróide serve para designar qualquer ser que tenha a forma de um homem, em contraponto à palavra ginóide que serve para designar seres de forma feminina. Entretanto por seu uso em várias obras de ficção científica, o termo passou a ser usado mais especificamente para descrever robôs com aparência humana. O mesmo não ocorreu com o termo ginóide, sendo muito poucos os livros e filmes a usarem esse termo para descrever robôs com aparência de mulher. Assim, o termo andróide acaba sendo usado também para descrever os robôs de forma feminina.
• Criação de Ciborgues
Um Ciborgue é um organismo cibernético, isto é, um organismo dotado de partes orgânicas e mecânicas, geralmente com a finalidade de melhorar as suas capacidades utilizando tecnologia artificial.
• Planeamento
O planeamento está intimamente ligado ao raciocínio. Um programa com capacidade de planear é capaz de fazer escolhas hipotéticas, estabelecer compromissos e ordenar as suas escolhas segundo os critérios que melhor servem os seus objectivos. O planeador consegue ainda avaliar se os compromissos tomados até então conduzem a um plano completo e coerente.
Um exemplo de um excelente planeador é o Deep Blue, o programa da IBM que venceu o campeão mundial de xadrez Kasparov em 1997. O programa foi capaz de elaborar planos estratégicos e adaptá-los às novas situações de jogo que foram surgindo.
9. Ameaça para a Espécie Humana?
Existe actualmente uma complexa discussão sobre os perigos que a singularidade tecnológica poderá trazer à humanidade.
Segundo muito estudiosos, um intelecto artificial muito superior aos melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidade social, não teria porquê estar submisso a nós. De acordo com esta linha de raciocínio, Vernor Vinge aposta na revelação das máquinas inteligentes contra os homens, o que poderia resultar num extermínio total ou na escravização da raça humana após uma guerra de grandes proporções, muitas vezes apontada como uma possível Terceira Guerra Mundial. Ao lado de Vernor Vinge, temos também Bill Joy, fundador da Sun Microsystems, que publicou no ano 2000 o, actualmente famoso, artigo "Por que o futuro não precisa de nós?", onde defende a ideia de que as máquinas inteligentes e auto-replicantes são perigosas demais e poderão facilmente fugir do nosso controle.
Tradicionalmente argumenta-se que os homens jamais iriam entregar o poder às máquinas ou dar-lhes a capacidade de tomá-lo de nós, mas as coisas podem se suceder de forma diferente, já que o grau de dependência do homem aumentará paulatinamente até chegar a um ponto em que não restem alternativas senão a de aceitar as decisões tomadas pelas máquinas. Na mesma proporção em que os problemas da sociedade se tornarem mais complexos e as máquinas mais inteligentes, cada vez mais decisões serão tomadas por elas simplesmente por serem mais eficazes que as tomadas pelos humanos. Isso pode levar a um estágio em que a nossa dependência em relação às máquinas transforme-se no domínio pacífico das mesmas sobre nós, o que não descarta a possibilidade de um domínio agressivo.
Numa linha de raciocínio alternativa, Theodore Kaczynski publicou um manifesto sobre a possibilidade das classes superiores da sociedade usarem-se da tecnologia para simplesmente eliminar as massas inferiores, Kaczynski é também adepto do ludismo e é radicalmente contra o avanço tecnológico da forma como ele está acontecendo. Os artigos de Kaczynski foram incluídos em um livro recente de Raymond Kurzweil.
Outros perigos mais dizem respeito a exclusão digital e social e ao impacto da singularidade tecnológica sobre a economia internacional, especialmente sobre os países pobres e emergentes. Há ainda questões éticas, que não representam perigos potenciais, mas que também não podem ser ignoradas.
10. Cronologia da I.A. em Portugal
1973 - Luís Moniz Pereira, Helder Coelho e Fernando Pereira juntam-se no LNEC.
1974 - Helder Coelho contribui para a criação de uma Divisão de Informática no LNEC orientada para projectos de Investigação no âmbito das Ciências da Computação. Em anexo inclui-se a proposta para a formação de um Grupo de Aplicações de Inteligência Artificial (G.A.I.A.), o qual só seria formalmente criado em 1988.
- É criado no LNEC o actual centro de Informática e é oficializado o apoio institucional à investigação em I.A.
1975 - Adopção da Linguagem de Programação PROLOG como instrumento de trabalho por Luís Moniz Pereira e Helder Coelho e importação da mesma para Portugal.
1977 - Proposta e construção da Linguagem de Programação DEC-10 PROLOG por David Warren, Luís Moniz Pereira e Fernando Pereira e escrita do manual desta nova Linguagem.
1978 - Luís Moniz Pereira deixa o LNEC e cria um grupo de I.A. (Centro de Inteligência Artificial - CENTRIA) na Universidade Nova de Lisboa - Faculdade de Ciências e Tecnologia.
1979 - Publicação do livro How to solve it with PROLOG por Helder Coelho, Luís Moniz Pereira e José Carlos Cotta.
1980 - Construção da Linguagem de Programação C-PROLOG por Fernando Pereira e Luís Damas.
1981 - Início da divulgação da Linguagem PROLOG no Brasil por Helder Coelho.
1983 - Fernando Pereira saí de Portugal e vai para o Standford Reaserch Institute, na Califórnia.
1984 - Construção da Linguagem de Programação Quintus PROLOG por David Warren, Fernando Pereira e outros. Atracção de estudantes brasileiros para o LNEC por Helder Coelho.
- Criação da Associação Portuguesa para a I.A.
1985 - Organização do primeiro Encontro Português de Inteligência Artificial (EPIA-85) no Porto, por David Bradzil e Miguel Figueiras.
- EPIA-85 (1º Encontro Português de Inteligência Artificial) Local: Porto
1986 - Organização da Logic Programming Workshop no Algarve por Luís Moniz Pereira. Criação da AAPIA. Envolvimento em programas europeus.
- Organização da EPIA-86 em Lisboa, no LNEC, por Helder Coelho.
- EPIA-86 (2º Encontro Português de Inteligência Artificial) Local: Lisboa
1987 - EPIA-87 (3º Encontro Português de Inteligência Artificial) Local: Braga
1988 - Publicação do livro PROLOG by example, de Helder Coelho e José Carlos Cotta e do livro Handbook of Artificial Inteligence, de Ernesto Morgado, Helder Coelho e João Pavão Martins.
- Fundação da Primeira Escola Avançada de I.A. (E.A.I.A.-88) em Mira por Ernesto Costa, Ernesto Morgado e Helder Coelho
1989 - Organização da Sixth International Conference on Logic Programming por Luís Moniz Pereira e António Porto.
- Publicação do livro Introduction to computer Science por João Pavão Martins.
- EPIA-89 (4º Encontro Português de Inteligência Artificial) Local: Lisboa
1990 - Helder Coelho deixa o LNEC e passa a professor catedrático da Universidade Técnica de Lisboa e ingressa no INESC como chefe de projecto para a I.A.
1991 - EPIA-91 (5º Encontro Português de Inteligência Artificial) Local: Albufeira
1993 - EPIA-93 (6º Encontro Português de Inteligência Artificial) Local: Porto
1995 - EPIA-95. Criação do C3, Centro das Ciências da Complexidade - Faculdade de Ciências da Universidade de Lisboa pelo Professor Gouveia Portela.
1997 - EPIA-97 (8º Encontro Português de Inteligência Artificial) Local: Coimbra
1999 - EPIA-99 (9º Encontro Português de Inteligência Artificial) Local: Évora
2001 - EPIA-2001 (10º Encontro Português de Inteligência Artificial) Local: Porto
2003 - EPIA-2003 (11º Encontro Português de Inteligência Artificial) Local: Beja
2005 - EPIA-2005 (12º Encontro Português de Inteligência Artificial) Local: Covilhã
2007 - EPIA-2007 (13º Encontro Português de Inteligência Artificial) Local: Guimarães
11. António Damásio
António Rosa Damásio (Lisboa, 25 de Fevereiro de 1944) é um médico neurologista, neurocientista português. Licenciou-se em Medicina na Faculdade de Medicina da Universidade de Lisboa, onde veio também a doutorar-se. Após uma estadia no Centro de Investigação da Aphasia de Boston (EUA), regressou ao Departamento de Neurologia do Hospital Universitário de Lisboa. Actualmente é professor na Universidade Central de Medicina de Iowa, tal como a sua mulher, Hanna Damásio, onde ocupa a cátedra M.W. Van Allen e criou, junto com a esposa, um laboratório para a investigação da emoção usando o método da lesão e a imagem funcional. É ainda professor do Instituto Salk de La Jolla (Califórnia).
Ficou mundialmente famoso com a publicação do seu primeiro livro: O Erro de Descartes - Emoção, Razão e Cérebro Humano. Outra obra reconhecida mundialmente como referência na sua área científica é O Sentimento de Si (2001), eleito um dos dez livros do ano pelo New York Times. Escreveu igualmente "Ao encontro de Espinosa". Recebeu, entre muitos outros prémios, o Prémio Pessoa e o Prémio Príncipe das Astúrias de Investigação Científica e Técnica em Junho de 2005.
Estudioso de neurobiologia do comportamento humano e investigador das áreas cerebrais responsáveis pela tomada de decisões e conduta. Observou o comportamento em centenas de doentes com lesões no córtex pré-frontal, permitindo concluir que, embora a capacidade intelectual se mantivesse intacta, esses doentes apresentavam mudanças constantes do comportamento social e incapacidade de estabelecer e respeitar regras sociais.
Os seus estudos debruçam-se sobre a área designada por ciência cognitiva, e têm sido decisivos para o conhecimento das bases cerebrais da linguagem e da memória.
12. Links relacionados com IA
APPIA - A Associação Portuguesa para a Inteligência Artificial
http://www.appia.pt/
AAAI - A associação americana de IA, fonte de muitos recursos.
http://www.aaai.org/Resources/resources.php
AIMA - O Livro de referência. Incluindo o código em várias linguagens
http://aima.cs.berkeley.edu/
AI:NS - Alguns elementos sobre o livro do Nils Nilsson
http://robotics.stanford.edu/~nilsson/
A IA e o(s) Negócio(s) Para quem quer saber dos usos comerciais e industriais da IA, incluindo fornecedores, produtos, etc.
http://aiintelligence.com/
Cohen's Empirical Methods for Artificial Intelligence
http://eksl-www.cs.umass.edu/emai.html
AAAI: American Association for Artificial Intelligence
http://www.aaai.org/
ACM: the Association for Computing Machinery
http://www.acm.org/
AIAI: Artificial Intelligence Applications Institute
http://www.aiai.ed.ac.uk/
AT&T Bell Labs
http://www.research.att.com/
Carnegie Mellon University Artificial Intelligence Repository
http://www.cs.cmu.edu/Web/Groups/AI/html/repository.html
MIT: AI lab at Massachusetts Institute of Technology
http://www.ai.mit.edu/
IJCAI - The IJCAI is the main international gathering of researchers in AI.
http://ijcai.org/
Neural Networks-Applications of AI
http://www.emsl.pnl.gov:2080/docs/cie/neural/products/
Thoughts on AI
http://stud2.tuwien.ac.at/%7Ee9425704/ai.html
Neural Networks
http://ourworld.compuserve.com/homepages/greg_mcdougall/
Famous People Of AI
ftp://ftp.cc.gatech.edu/pub/ai/students/cox/Www/person-pages.html
13. Bibliografia
http://wikipedia.org/
http://www.citi.pt/educacao_final/trab_final_inteligencia_artificial/index_centro.html
http://homepages.inf.ed.ac.uk/rbf/
http://www.centroatl.pt/titulos/solucoes/casasinteligentes.php3
http://www.appia.pt/
http://opiniao.sapo.pt/
http://www.cinema2000.pt/
http://www.citi.pt/
Documentário Video: Human Version 2.0 (2006)
Sem comentários:
Enviar um comentário