-
Isaac Asimov propõe as leis da robótica (1942)
Ao propor as Três Leis da Robótica, o escritor de ficção científica Isaac Asimov estabelece princípios de convívio entre humanos e máquinas inteligentes. -
Alan Turing propõe o jogo de imitação (1950)
A pesquisa de Turing começa com o questionamento: “’As máquinas podem pensar?”
Essa questão teórica deu origem ao “Jogo da Imitação”, um exercício para testar a capacidade de uma máquina ter conhecimento equivalente ao do humano. A pesquisa forneceu uma referência simples para identificar inteligência em uma máquina: ajudou a dar forma a uma filosofia de IA. -
Conferência de Inteligência Artificial na Darthmouth College (1956)
Em 1955, não havia um conceito unificador para envolver vários tipos de inteligência de máquina. Até que John McCarthy, professor de matemática do Dartmouth College, cunhou o termo “inteligência artificial”. -
Frank Rosenblatt constrói o perceptron (1957)
A estrutura básica de uma rede neural é chamada de “perceptron”. As redes neurais de hoje, rodando em computadores poderosos, conectam bilhões dessas estruturas. Mas os perceptrons existiam muito antes dos computadores. No fim da década de 1950, um psicólogo chamado Frank Rosenblatt construiu um modelo eletromecânico chamado Mark I Perceptron, que hoje fica no museu Smithsonian. -
O primeiro “abandono” da Inteligência Artificial (década de 1970)
Durante grande parte da década de 1960, agências governamentais como a Agência de Projetos de Pesquisa Avançada em Defesa dos EUA (DARPA) investiram dinheiro em pesquisas. Mas o cenário mudou no início dos anos 70. Um relatório do Comitê Consultivo para o Processamento Automático de Idiomas (ALPAC), para o governo dos EUA, em 1966 e o Relatório Lighthill, para o governo do Reino Unido, em 1973, apresentaram conclusões pessimistas sobre o potencial da inteligência artificial. -
O segundo “abandono” da Inteligência Artificial
A década de 1980 começou com o desenvolvimento e o sucesso de “sistemas dedicados”, que armazenavam quantidades de conhecimento de domínio e emulavam a tomada de decisões de especialistas humanos. A tecnologia foi originalmente desenvolvida pela universidade Carnegie Mellon para a Digital Equipment Corporation. Empresas implementaram a tecnologia rapidamente, mas os sistemas exigiam um hardware caro e especializado. -
Deep Blue da IBM supera Kasparov (1997)
O prestígio da inteligência artificial aumentou em 1997, quando o computador Deep Blue, da IBM, derrotou o campeão mundial de xadrez Garry Kasparov. O Deep Blue tinha bastante poder computacional e utilizou uma abordagem de “força bruta”, avaliando 200 milhões de movimentos por segundo. Os humanos têm a capacidade de examinar apenas cerca de 50 movimentos. -
A rede neural vê gatos (2011)
Em 2011, cientistas do mundo todo desenvolviam redes neurais. Naquele ano, Jeff Dean, engenheiro do Google, conheceu Andrew Ng, professor de ciência da computação de Stanford. Os dois construíram uma grande rede neural, com poder computacional impressionante, ao usar os recursos de servidor do Google, alimentado por um conjunto descomunal de dados de imagens. -
Geoffrey Hinton lança redes neurais profundas (2012)
Geoffrey Hinton, professor da Universidade de Toronto, e dois alunos, criaram a AlexNet, um modelo de rede neural para competir em um concurso de reconhecimento de imagem chamado ImageNet. -
Alphago derrota o campeão do Go Humano (2016)
Em 2013, pesquisadores de uma startup britânica chamada DeepMind publicaram um artigo mostrando como poderiam usar uma rede neural para jogar e vencer 50 jogos antigos de Atari. Mas os dias de glória do DeepMind estavam à frente. Em 2016, os cientistas do DeepMind, agora no Google, trocaram o Atari pelo jogo de tabuleiro Go. Eles desenvolveram um modelo de rede neural chamado AlphaGo, para jogar e aprender com a brincadeira.