¿Aún no tienes una cuenta? Crea una ahora y accede a tus listas favoritas, tu histórico de cuentas y muchas más cosas...
Pedidos y atención al cliente
PARTICULARES: 963 392 051 - FAX: 963 615 480 / LIBRERÍAS: 963 600 598 - FAX: 963 694 151
En papel: Entrega en 5-7 días |
|
|
El artículo no está disponible en esta web pero puede encontrarlo en nuestra Librería Ir a la librería | ||
Consultar disponibilidad en tiendas
Consultar disponibilidad en tiendasLos plazos estimados son para pedidos realizados antes de las 14:00h del viernes (salvo error o situaciones especiales: festivos, inventarios,etc).
|
Los grandes modelos del lenguaje han inundado muchos ámbitos en los que nos desenvolvemos. Raro es el que no haya puesto a prueba los modelos GPT 3.5/4, o no haya requerido la ayuda de ChatGPT. Pero ¿cómo son capaces de dar las respuestas que dan? Por debajo de todo se encuentran los algoritmos de aprendizaje profundo, en especial las redes neuronales artificiales de última generación. Este libro se dedica a las más destacadas en la construcción de estos modelos: las redes neuronales recurrentes (RNN-LSTM) y los transformers. Existen muchos vídeos y páginas web dedicadas a programar o usar, con pocas líneas de código, un modelo basado en RNN-LSTM o en bloques transformer. Sin embargo, aunque se proponen muestras codificadas, ambas arquitecturas son explicadas de una manera agnóstica a código. Se pretende que los que están aprendiendo a usarlas en código de alto nivel, también sepan entenderlas de manera exhaustiva y no ser el mero ejecutor de unas líneas. Esto ayudará a diseñar mejores entornos y, no menos importante, a explicarlos y comunicarlos. Además, para poder homologar comportamiento artificial con comportamiento humano, el tratamiento de la argumentación del libro está orientado hacia la ciencia cognitiva.