Objetivos
Identificar y explicar los componentes clave y la funcionalidad de los Modelos de Lenguaje de Gran Escala (LLMs) y la Recuperación de Información Generativa (RAG).
Evaluar ejemplos de aplicaciones RAG y describir cómo se integran con LLMs para mejorar la recuperación de información.
Aplicar técnicas de procesamiento para transformar datos no estructurados en formatos adecuados para el uso en LLMs.
Desarrollar habilidades para implementar y utilizar Sentence Transformers en la creación de bases de datos vectoriales para aplicaciones RAG.
Implementar y evaluar estrategias de búsqueda y recuperación utilizando consultas vectoriales y modelos LLM.
Implementar y desplegar modelos LLM en entornos locales y en la nube, utilizando herramientas avanzadas para facilitar el acceso y la interacción.
Utilizar frameworks de código abierto para desarrollar y desplegar aplicaciones RAG, demostrando comprensión y habilidad en la integración de estos componentes.
Índice
1. CONCEPTOS BÁSICOS SOBRE LLMS Y RECUPERACIÓN DE DATOS
1.1. Componentes clave de los modelos de lenguaje grande (LLMs)
1.2. ¿Por qué son tan revolucionarios los Transformers?
1.2.1. Limitaciones de las redes neuronales clásicas
1.2.2. La revolución de los Transformers
1.3. ¿Y a efectos prácticos, qué necesito tener para operar mi propio LLM?
1.4. Cargando un modelo de GPT-2 en nuestro entorno de desarrollo
1.5. Las matemáticas muy resumidas detrás de los Transformers (solo para fans verdaderos)
1.6. Comparación de Transformers con CNNs y RNNs
1.7. ¿Y cómo es posible que los LLMs parezcan razonar?
1.8. Componentes clave de la recuperación de datos
2. PROCESAMIENTO DE DATOS NO ESTRUCTURADOS
2.1. Definición de datos no estructurados
2.2. Algunos tipos de datos no estructurados
2.3. ¿Cómo se usan los datos no estructurados en RAG?
2.4. Preprocesamiento de Texto
2.5. Datos en ficheros
2.6. Importancia de procesar datos no estructurados para LLMs
2.7. ¿Qué es exactamente la indexación de datos?
2.8. Procesamiento de datos multimedia
2.8.1. Procesar videos (extraer audio, transcribirlo y generar embeddings)
3. EMBEDDINGS Y BASES DE DATOS VECTORIALES
3.1. Bases de datos de vectores
3.2. Almacenamiento en bases de datos relacionales y NoSQL
3.3. Archivos binarios y almacenamiento en disco
3.4. Bases de datos vectoriales
3.5. Almacenamiento de embeddings en bases de datos vectoriales
3.6. Introducción a los Sentence Transformers
3.7. Flujo general de integración de datos procesados en LLMs
4. CREA TU CHATBOT CON DATOS PERSONALIZADOS
4.1. Siguientes pasos
4.2. ¿Puedo alojar mi chatbot en Hugging Face?
4.3. Alojar el chatbot en tu propio servidor
4.4. Mantenimiento del chatbot
4.5. Evaluación de la recuperación de información
4.5.1. Métricas relevantes
4.5.2. Evaluando la efectividad del chatbot
5. DESPLIEGUES DE LLMS, PLATAFORMAS Y HERRAMIENTAS
5.1. Beneficios del despliegue local versus en la nube
5.2. Herramientas y entornos para despliegue local
5.3. Despliegue de LLMs en la nube
5.4. Optimización y mantenimiento de despliegues
5.5. Estrategias de actualización y mantenimiento de los modelos
5.6. Discusión sobre desafíos y soluciones en el uso práctico de LLMs





Valoraciones
No hay valoraciones aún.