História da Inteligência Artificial
Revisão de 15h28min de 9 de agosto de 2017 por Abaffa (discussão | contribs) (Criou página com 'Categoria:Inteligência Artificial * '''Inicio dos anos 40''' - Segunda Guerra Mundial. ** Criação dos primeiros computadores. ** Simulação de guerra. * '''1943''' -...')
- Inicio dos anos 40 - Segunda Guerra Mundial.
- Criação dos primeiros computadores.
- Simulação de guerra.
- 1943 - McCulloch e Pitts realizam os primeiros estudos para criar um modelo de neurônio artificial capaz de resolver qualquer função computável.
- 1956 - Criado oficialmente o termo Inteligência Artificial em um congresso no Dartmouth College.
- 1956 - 1966 - Época de sonhos.
- General Problem Solver (GPS).
- Lisp.
- 1966 - 1974 - Uma dose de realidade.
- Livro de Minsky e Papert (1969) critica perceptrons e paralisa investimentos em redes neurais por quase 20 anos (tema volta em 1986).
- Problema da complexidade computacional do algoritmos.
- 1969 - 1979 - Sistemas baseados em Conhecimento
- Grande evolução da Inteligência Artificial Simbólica.
- Desenvolvimento de sistemas especialistas.
- Prolog.
- 1980 - 1988 - Inteligência Artificial na Indústria
- Sistema especialistas.
- Ressurgem as redes neurais.
- Lógica Fuzzy.
- Inicio dos anos 90
- Sistemas Especialistas com alto custo de manutenção. Erro foi não ver que o objetivo deve ser Auxiliar, ao invés de Automatizar.
- Grandes avanços em todas as áreas da inteligência artificial, com manifestações significativas na aprendizagem de máquina, planejamento multi-agente, raciocínio com incerteza, mineração de dados, entre outros tópicos.
- 1997 - Deep Blue (IBM) derrota o campeão mundial de xadrez (Garry Kasparov).
- Algoritmos de busca, computadores de alta velocidade e hardware desenvolvido especificamente para xadrez.
- 2001 – Atualmente – Disponibilidade de grandes bases de dados
- Aprendizado de maquina;
- Big data;
- 2011 – Watson (IBM) derrota os dois maiores jogadores de Jeopardy (Brad Rutter e Ken Jennings).
- Baseado em tecnicas avançadas de Processamento de Linguagem Natural, Recuperação de Informação, Representação de Conhecimento, Raciocínio e Aprendizado de Máquina.
- Processamento paralelo massivo.
- 90 clusters com um total de 2880 servidores com processadores de 3.5 GHz (8 núcleos e 4 threads por núcleo). 16 Terabytes de memória RAM.