Inteligência Artificial

  • 1. ISAAC ASIMOV ESCREVE AS TRÊS LEIS DA ROBÓTICA (1942)

    Primeira Lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
    Segunda Lei: Um robô deve obedecer às ordens dadas por seres humanos, exceto onde tais ordens entrem em conflito com a Primeira Lei. Terceira Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei.
  • 2. ALAN TURING PROPÕE O JOGO DA IMITAÇÃO (1950)

    Proponho considerar a questão 'As máquinas podem pensar?'” Assim começou o trabalho de pesquisa seminal de Alan Turing em 1950, que desenvolveu uma estrutura para pensar sobre a inteligência das máquinas. Ele perguntou por que, se uma máquina pudesse imitar o comportamento senciente de um humano, ela mesma não seria senciente.
    Essa questão teórica deu origem ao famoso “Jogo da Imitação” de Turing
  • 4. FRANK ROSENBLATT CONSTRÓI O PERCEPTRON (1957)

    Mas os perceptrons existiam bem antes dos computadores poderosos. No final da década de 1950, um jovem psicólogo pesquisador chamado Frank Rosenblatt construiu um modelo eletromecânico de um perceptron chamado Mark I Perceptron , que hoje se encontra no Smithsonian. Era uma rede neural analógica que consistia em uma grade de células fotoelétricas sensíveis à luz conectadas por fios a bancos de nós contendo motores elétricos com resistores rotativos.
  • A IA EXPERIMENTA SEU PRIMEIRO INVERNO (DÉCADA DE 1970)

    A inteligência artificial passou a maior parte de sua história no campo da pesquisa. Durante grande parte da década de 1960, agências governamentais como a Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA) investiram dinheiro em pesquisa e perguntaram pouco sobre o eventual retorno de seu investimento. E os pesquisadores de IA muitas vezes exageraram o potencial de seu trabalho para que pudessem manter seu financiamento. Isso tudo mudou no final dos anos 1960 e 70
  • 6. O SEGUNDO INVERNO DA IA ​​CHEGA (1987)

    A década de 1980 começou com o desenvolvimento e o sucesso de “ sistemas especialistas ”, que armazenavam grandes quantidades de conhecimento de domínio e emulavam a tomada de decisões de especialistas humanos. A tecnologia foi originalmente desenvolvida por Carnegie Mellon para a Digital Equipment Corporation, e as corporações implantaram a tecnologia rapidamente. Mas os sistemas especialistas exigiam hardware caro e especializado, o que se tornou um problema
  • 7. DEEP BLUE DA IBM VENCE KASPAROV (1997)

    Deep Blue tinha muito poder de computação e usava uma abordagem de “força bruta”, avaliando 200 milhões de movimentos possíveis por segundo para encontrar o melhor possível. Os humanos têm a capacidade de examinar apenas cerca de 50 movimentos por turno. O efeito do Deep Blue era semelhante ao da IA, mas o computador não estava realmente pensando em estratégia e aprendizado enquanto jogava, como fariam os sistemas posteriores.
  • 8. UMA REDE NEURAL VÊ GATOS (2011)

    A rede neural que eles construíram funcionou em 16.000 processadores de servidor. Eles alimentaram 10 milhões de capturas de tela aleatórias e sem rótulo do YouTube. Dean e Ng não pediram à rede neural para apresentar nenhuma informação específica ou rotular as imagens. Quando as redes neurais são executadas dessa forma não supervisionada, elas naturalmente tentam encontrar padrões nos dados e formar classificações.
  • 10. ALPHAGO DERROTA O CAMPEÃO HUMANO DE GO (2016)

    Em 2013, pesquisadores de uma startup britânica chamada DeepMind publicaram um artigo mostrando como eles poderiam usar uma rede neural para jogar e vencer 50 jogos antigos da Atari. Impressionado, o Google arrebatou a empresa por US$ 400 milhões. Mas os dias de glória da DeepMind estavam à frente.
  • 9. GEOFFREY HINTON LIBERA REDES NEURAIS PROFUNDAS (2012)

    A vitória fez um forte argumento de que as redes neurais profundas executadas em processadores gráficos eram muito melhores do que outros sistemas na identificação e classificação de imagens com precisão. Isso, talvez mais do que qualquer outro evento único, deu início ao atual renascimento das redes neurais profundas, dando a Hinton o apelido de “padrinho do aprendizado profundo”. Junto com os colegas gurus de IA Yoshua Bengio e Yann LeCun , Hinton ganhou o cobiçado Prêmio Turing de 2018