Ia de Nils Primer Ciclo
Ia de Nils Primer Ciclo
Ia de Nils Primer Ciclo
inteligencia artificial?
2. Define GPT:
3. Iker nos regala una conclusión sobre las i.a. el creo una
4. ¿Qué es el embedding?
Microsoft:
Año: 2018
Resumen: Este paper presenta DensePose, un enfoque que aborda el desafío de estimar la
pose humana densa en imágenes "en la naturaleza" (en entornos del mundo real). Utiliza una
red neuronal para obtener una asociación densa entre puntos 3D en el modelo humano y los
píxeles 2D en la imagen. La estimación de pose densa tiene aplicaciones en la realidad
aumentada, el seguimiento de cuerpos humanos y la interacción humano-máquina.
Google:
Año: 2017
Tiempo de ejecución: La inferencia a menudo implica aplicar el modelo entrenado para realizar
predicciones en nuevos datos. Algunos modelos de inteligencia artificial, especialmente los
más grandes y complejos, pueden requerir mucho tiempo para realizar inferencias en tiempo
real, lo que podría ser un problema en aplicaciones que necesitan respuestas rápidas.
Tamaño del modelo: Algunos modelos de inteligencia artificial pueden ser muy grandes y
ocupar una cantidad significativa de espacio de almacenamiento, lo que puede ser un
problema en dispositivos con capacidad limitada o en sistemas que necesitan alojar múltiples
modelos.
Sesgo y equidad: Los modelos de inteligencia artificial pueden aprender sesgos inherentes
presentes en los datos de entrenamiento, lo que podría llevar a predicciones injustas o
discriminatorias en la fase de inferencia. Esto es especialmente problemático en aplicaciones
críticas, como la toma de decisiones en el ámbito judicial o médico.
"Synthesia io" se encarga de la generación de videos sintéticos con IA, mientras que "Opus" es
un códec de audio de código abierto para compresión de alta calidad y baja latencia.
partir de texto:
El problema con las IA que generan imágenes a partir de texto es la falta de control y
especificidad en la generación, lo que puede llevar a imágenes incoherentes o con sesgos.
i.a. se observó que el texto a comparación de las imágenes era peor o mejor.
La calidad del contenido generado por IA (texto) puede variar en comparación con las
imágenes, dependiendo de la tarea y el contexto específico.
Tokenización: División del texto en unidades más pequeñas llamadas "tokens" (palabras,
subpalabras o caracteres) para facilitar el procesamiento del lenguaje natural.
Deep Learning es una rama del aprendizaje automático que utiliza redes neuronales artificiales
para aprender y procesar datos en múltiples capas.
13. ¿Qué es una red neuronal??
contra CHATGPT?
i.a.
gpt3?