F63d9562170abf7d2c8379640cded38d.tinbot x imagem

The Evolution of IA

  • Isaac Asimov propõe as Três Leis da Robótica

    Isaac Asimov propõe as Três Leis da Robótica
    Ao propor as Três Leis da Robótica, o escritor de ficção científica Isaac Asimov estabelece princípios de convívio entre humanos e máquinas inteligentes. 1. “Um robô não pode ferir um humano ou permitir que um humano sofra algum mal”; 2. “Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei”; e 3. “Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores”;
  • Redes Neurais

    Redes Neurais
    Em 1943, Warren McCulloch e Walter Pitts apresentam um artigo que fala pela primeira vez de redes neurais, estruturas de raciocínio artificiais em forma de modelo matemático que imitam o nosso sistema nervoso.
  • Alan Turing propõe o jogo da imitação

    Alan Turing propõe o jogo da imitação
    A pesquisa de Turing começa com o questionamento: “'As máquinas podem pensar?" Essa questão teórica deu origem ao "Jogo da Imitação", um exercício para testar a capacidade de uma máquina ter conhecimento equivalente ao do humano. A pesquisa forneceu uma referência simples para identificar inteligência em uma máquina: ajudou a dar forma a uma filosofia de IA.
  • A Calculadora SNARC

    A Calculadora SNARC
    Em 1951, nasceu o SNARC, uma calculadora de operações matemáticas simulando sinapses, que são as ligações entre neurônios. O responsável foi Marvin Minsky, aluno da dupla daquele primeiro artigo sobre redes neurais.
  • Jogo de damas inteligente

    Jogo de damas inteligente
    Em 1952, Arthur Samuel criou um jogo de damas no IBM 701 que consegue melhorar por conta própria e vira um desafio a altura de jogadores amadores.
  • Conferência de Inteligência Artificial na Dartmouth College

    Conferência de Inteligência Artificial na Dartmouth College
    Em 1955, não havia um conceito unificador para envolver vários tipos de inteligência de máquina. Até que John McCarthy, professor de matemática do Dartmouth College, cunhou o termo "inteligência artificial". McCarthy organizou uma conferência de IA no ano seguinte. Pesquisadores discutiram sobre as várias áreas com potencial para o estudo de IA. O consenso nas discussões foi que a IA tinha um grande potencial para beneficiar os humanos.
  • Frank Rosenblatt costrói o perceptron

    Frank Rosenblatt costrói o perceptron
    A estrutura básica de uma rede neural é chamada de "perceptron". As redes neurais de hoje, rodando em computadores poderosos, conectam bilhões dessas estruturas. Mas os perceptrons existiam muito antes dos computadores. No fim da década de 1950, um psicólogo chamado Frank Rosenblatt construiu um modelo eletromecânico chamado Mark I Perceptron, que hoje fica no museu Smithsonian.
  • O "jurássico" Mark 1

    O "jurássico" Mark 1
    Em 59, vemos pela primeira vez o termo machine learning, descrevendo um sistema que dá aos computadores a habilidade de aprender alguma função sem serem programados diretamente pra isso. Basicamente, significa alimentar um algoritmo com dados, para que a máquina aprenda a executar uma tarefa automaticamente.
  • O robô móvel Shakey.

    O robô móvel Shakey.
    Em 64, teve o primeiro chatbot do mundo, ELIZA, que conversava de forma automática imitando uma psicanalista, usando respostas baseadas em palavras-chave e estrutura sintática. E em 69 é demonstrado o Shakey, primeiro robô que unia mobilidade, fala e certa autonomia de ação. Ele era lento e cheio de falhas, mas funcionava.
  • O primeiro "abandono" da Inteligência Artificial

    O primeiro "abandono" da Inteligência Artificial
    Durante grande parte da década de 1960, agências governamentais investiram dinheiro em pesquisas. O cenário mudou no início dos anos 70. Relatórios para o governo dos EUA, em 1966 e o Relatório Lighthill, para o governo do Reino Unido, em 1973, apresentaram conclusões pessimistas sobre o potencial da inteligência artificial. Como resultado, o governo dos EUA e o governo britânico cortaram o financiamento entre os anos 70 e 80.
  • O segundo "abandono" da Inteligência Artificial

    O segundo "abandono" da Inteligência Artificial
    O mercado de sistemas dedicados entrou em colapso em 1987, com os principais fornecedores de máquinas saindo do mercado. Mais uma vez, o termo "inteligência artificial" tornou-se quase um tabu na comunidade de pesquisa. Para evitar ser visto como sonhadores perdulários ​​pedindo financiamento, os pesquisadores começaram a usar nomes diferentes para trabalhos relacionados à IA — como "informática", "aprendizado de máquina" e "análise". Este segundo "abandono" durou até os anos 2000.
  • Deep Blue da IBM supera Kasparov

    Deep Blue da IBM supera Kasparov
    O Deep Blue tinha bastante poder computacional e utilizou uma abordagem de "força bruta", avaliando 200 milhões de movimentos por segundo. Os humanos têm a capacidade de examinar apenas cerca de 50 movimentos. O efeito do Deep Blue era semelhante à IA, mas o computador não estava pensando na estratégia e no aprendizado enquanto jogava, como os sistemas posteriores. Os investidores ficaram impressionados: a vitória da Deep Blue elevou a cotação das ações da IBM.
  • Inteligência sobre rodas

    Inteligência sobre rodas
    Essa é uma área que deve levar alguns anos pra se desenvolver plenamente, mas já acompanhamos no presente alguns resultados. A DARPA mantém desde 2004 uma competição anual chamada Grand Challenge que premia e impulsiona projetos de carros autônomos, e de lá já saíram várias ideias e evoluções.
  • O “BigDog”

    O “BigDog”
    Outro bom exemplo veio em 2005, com a Boston Dynamics. Ela apresentou uma revolução na IA com aplicações em várias indústrias com o robô BigDog, capaz de se movimentar por terrenos de difícil acesso para humanos. Formas de cachorro e até humanoides estão cada vez melhores em mobilidade e inteligência.
  • A rede neural vê gatos

    A rede neural vê gatos
    Por três dias, uma rede neural com 16.000 processadores analisou 10 milhões de capturas de tela do YouTube. Em seguida, mostrou três imagens borradas, representando os padrões visuais que estavam nas imagens de teste: um rosto humano, um corpo humano e um gato. Essa pesquisa foi um grande avanço e marcou o início do projeto Google Brain.
  • O grande Watson

    O grande Watson
    A IBM voltou a ganhar as manchetes com o Watson, um supercomputador e plataforma de inteligência artificial. Pra mostrar todo o seu potencial, ele venceu os melhores jogadores no game show televisivo de adivinhação Jeopardy. A partir daí, ele começou a ser aplicado em vários campos, como saúde, direito, reconhecimento de imagem e muito mais.
  • Cada vez mais espertas

    Cada vez mais espertas
    A partir de 2008, o processamento de linguagem natural voltou com tudo. A Google lançou o recurso de reconhecimento de voz no iPhone pra pesquisas, e isso mostrou a integração da IA com todo o ecossistema da empresa. Em 2011, a própria Apple lançou uma assistente virtual, a Siri, que responde perguntas, pesquisa por você e até conta piadas.
  • Nasce a Udacity

    Nasce a Udacity
    Conhecida como a Universidade do Vale do Silício, a Udacity surge neste ecossistema inovador dos Estados Unidos em 2011, após o experimento do professor da Universidade de Stanford Sebastian Thrun ao lado de Peter Norvig, em que eles ofereciam um curso online e gratuito sobre “Introdução à Inteligência Artificial”. Daí, surgiu a Udacity.
  • Geoffrey Hinton lança redes neurais profundas

    Geoffrey Hinton lança redes neurais profundas
    Geoffrey Hinton, professor da Universidade de Toronto, e dois alunos, criaram a AlexNet, um modelo de rede neural para competir em um concurso de reconhecimento de imagem chamado ImageNet. Os participantes deveriam usar seus sistemas para processar milhões de imagens de teste e identificá-las com a maior precisão possível. AlexNet venceu o concurso com uma taxa de erro inferior à metade da do vice-campeão.
  • Alphago derrota o campeão do Go Humano

    Alphago derrota o campeão do Go Humano
    Em 2016, os cientistas do DeepMind, agora no Google, trocaram o Atari pelo jogo de tabuleiro Go. Eles desenvolveram um modelo de rede neural chamado AlphaGo, para jogar e aprender com a brincadeira. O software jogou contra outras versões do AlphaGo, aprendendo com as estratégias de ganhar e perder. Funcionou. O AlphaGo derrotou o maior jogador de Go do mundo, Lee Sedol, quatro jogos a um.