-
CSIgen
SCIgen es un programa informático llamado “An Automatic CS Paper Generator”. Fue creado por investigadores del Instituto de Tecnología de Massachusetts (MIT) como una herramienta para generar automáticamente artículos científicos aparentemente legítimos, pero que en realidad son completamente incoherentes y generados aleatoriamente.
¡Crea el tuyo en este enlace! -
Period: to
IA GENERATIVA Y SUS HITOS
-
Imagenet
ImageNet es una base de datos masiva de imágenes creada con el propósito de entrenar y evaluar algoritmos de reconocimiento de objetos. Contiene millones de imágenes etiquetadas en diferentes categorías, lo que la convierte en una herramienta valiosa para el desarrollo y mejora de algoritmos de visión por computadora y aprendizaje profundo. -
Modelos GAN
Redes adversarias generativas: Modelos de aprendizaje automático en el que dos redes neuronales, el generador y el discriminador, se enfrentan en un proceso de entrenamiento. Son el origen de los actuales modelos generativos de imágenes. Uno de los sitios pioneros fue la desaparecida deepart.io -
Transformers
Introducidos por Vaswani et al. en 2017 en su artículo Attention is All You Need, son clave en tareas de PLN y aprendizaje automático. Su característica principal es el mecanismo de atención, que permite capturar interacciones entre todas las palabras (o tokens) de una secuencia de entrada. Esto mejora la captura de dependencias contextuales y relaciones en el texto, aumentando su efectividad en traducción, resumen y generación de lenguaje. -
Foundation Models: GPT, BERT …
Es un tipo de modelo de lenguaje preentrenado en grandes cantidades de datos para aprender patrones lingüísticos y estructuras del lenguaje. Estos modelos base, como GPT (Generative Pre-trained Transformer) o BERT (Bidirectional Encoder Representations from Transformers), se han entrenado con grandes conjuntos de texto y representan el conocimiento general del lenguaje. Si te interesa el tema, aquí tienes un artículo que compara estos modelos. -
Google BERT
BERT ha marcado un hito en el campo del procesamiento del lenguaje natural, proporcionando a las máquinas una comprensión más profunda y contextual del lenguaje, y ha tenido un impacto significativo en la forma en que los motores de búsqueda, como Google, ofrecen resultados más precisos y relevantes a los usuarios. -
GPT-2
GPT-2 fue una mejora significativa sobre GPT-1, destacando por su mayor capacidad (1.5 mil millones de parámetros frente a 117 millones en GPT-1) y su enfoque en generación de texto fluida y coherente. A diferencia de GPT, BERT es bidireccional, lo que le permite entender el contexto en ambas direcciones del texto, mientras que GPT-2 es unidireccional, enfocándose solo en el contexto anterior para generar texto.
Pruébalo libremente en Hugging Face -
GPT-3
GPT-3, lanzado en 2020, representó un salto importante en modelos de lenguaje, con 175 mil millones de parámetros, muy superior a GPT-2 (2019) y sus competidores de la época, como T5 de Google (2019) y BERT (2018). A diferencia de estos, que eran más especializados en tareas específicas, GPT-3 destacó por su versatilidad en generación de texto, traducción, y tareas de comprensión sin necesitar ajuste fino extenso. Su tamaño permitió mejores resultados en tareas diversas con menos entrenamiento. -
DALL-E
DALL-E es un modelo generativo de imágenes desarrollado por OpenAI. Fue presentado en enero de 2021 en un artículo titulado "DALL·E: Creating Images from Text" (DALL·E: Creando Imágenes a partir de Texto). -
Github Copilot
GitHub Copilot, lanzado en 2021, es una herramienta de GitHub desarrollada con OpenAI, que funciona como un "code assistant" basado en inteligencia artificial. Utiliza GPT-3 para entender el contexto del código y sugerir fragmentos de código relevantes, ayudando a los desarrolladores a escribir más rápido y eficientemente. Compite con herramientas como TabNine y Kite, ofreciendo un "autocompletar" avanzado para múltiples lenguajes y frameworks. -
ChatGPT
ChatGPT, basado en GPT-3.5. Diseñado para interactuar y responder preguntas, proporciona información y asistencia en diversos temas. Fue entrenado en una amplia variedad de datos y textos para generar lenguaje humano coherente y contextual. Su conocimiento está limitado a la información disponible hasta septiembre de 2021. Este hito marcó un antes y un después en la popularidad de la IA, hasta entonces conocida por investigadores y profesionales del sector. -
DALL-E 2
En marzo de 2022, OpenAI lanzó DALL-E 2, una versión mejorada del modelo de IA DALL-E. Utilizando la arquitectura de GPT-3, DALL-E 2 está diseñado para generar imágenes a partir de descripciones textuales. El nombre “DALL-E” combina Salvador Dalí y Wall-E de Pixar. Este modelo puede crear imágenes realistas y creativas a partir de texto, interpretando y transformando palabras en imágenes mediante aprendizaje profundo.