Limited Time Sale$21.11 cheaper than the new price!!
| Management number | 219513615 | Release Date | 2026/05/03 | List Price | $14.07 | Model Number | 219513615 | ||
|---|---|---|---|---|---|---|---|---|---|
| Category | |||||||||
ÁLGEBRA LINEAL PARA INTELIGENCIA ARTIFICIALEspacios vectoriales, transformaciones y el álgebra lineal detrás de la IAActualizado para comprender Transformers, GPT, LLMs, LoRa y más.Con más de 120 figuras y diagramas para mejor comprensión.El álgebra lineal es el lenguaje de la inteligencia artificial. Cuando ChatGPT genera una respuesta, cuando Claude razona sobre un problema, cuando Gemini analiza una imagen, detrás hay operaciones de álgebra lineal ejecutándose miles de millones de veces. El mecanismo de atención de los Transformers es un producto interno que mide relevancia entre vectores. Los embeddings que codifican significado son vectores en espacios de miles de dimensiones.Pero la mayoría de los cursos enseñan a calcular sin explicar qué significa lo que calculas. El resultado: ingenieros que usan PyTorch como una caja negra, incapaces de entender por qué un modelo no converge o qué hace realmente una capa de atención.¿Alguna vez aprendiste álgebra lineal manipulando matrices sin entender qué hacías?Este libro toma el camino opuesto. En lugar de empezar con matrices y determinantes, comienza con la pregunta fundamental: ¿qué es un espacio vectorial? Construye la teoría desde los operadores lineales hacia las matrices, no al revés. Las matrices aparecen como representaciones de transformaciones, no como la definición del campo.Lo que hace diferente a este libro:- Espacios vectoriales abstractos desde el principio: polinomios, funciones y matrices son vectores- Transformaciones lineales antes que matrices: entender qué es una función lineal antes de representarla con números- El teorema rango-nulidad como piedra angular, no como curiosidad- Valores propios como direcciones invariantes, no como raíces de polinomios característicos- Determinantes al final, con su interpretación geométrica como volumen orientadoAplicaciones en inteligencia artificial:Dos partes completas conectan la teoría con el aprendizaje automático moderno:- SVD, PCA, mínimos cuadrados y la pseudoinversa de Moore-Penrose- Factorizaciones matriciales (LU, Cholesky, QR) y cuándo usar cada una- Capas de redes neuronales como transformaciones lineales- Embeddings y la geometría de los espacios semánticos- El mecanismo de atención de los Transformers explicado desde el álgebra lineal- LoRA: cómo adaptar modelos de miles de millones de parámetros con actualizaciones de bajo rango- Por qué los valores singulares determinan la estabilidad del entrenamientoPara quién es este libro:- Científicos de datos e ingenieros de ML que quieren entender qué hay detrás de las bibliotecas- Estudiantes de matemáticas, física o ingeniería que quieren entender, no solo calcular- Profesionales que trabajan con LLMs y necesitan diagnosticar problemas de entrenamiento- Cualquiera que sintió que su curso de álgebra lineal fue una colección de trucos sin sentido24 capítulos. 5 partes. De los axiomas de espacio vectorial al mecanismo de atención de los Transformers.Al terminar, entenderás que el mecanismo de atención es un producto interno normalizado, que los embeddings codifican semántica mediante geometría vectorial, y que LoRA explota la estructura de bajo rango. No solo sabrás calcular: sabrás qué estás calculando. Read more
| ISBN13 | 979-8278713975 |
|---|---|
| Language | Spanish |
| Publisher | Independently published |
| Dimensions | 6.24 x 0.86 x 9.24 inches |
| Item Weight | 1.14 pounds |
| Print length | 297 pages |
| Publication date | December 14, 2025 |
If you notice any omissions or errors in the product information on this page, please use the correction request form below.
Correction Request Form