Hands-On Large Language Models

Anglais, Maarten Grootendorst, Jay Alammar, 2024
Livré entre mar, 3/6 et jeu, 5/6
Plus que 4 pièces en stock chez le fournisseur

Informations sur le produit

L'IA a acquis des capacités linguistiques étonnantes ces dernières années. Propulsés par les avancées rapides dans le domaine de l'apprentissage profond, les systèmes d'IA linguistique sont désormais capables d'écrire et de comprendre des textes mieux que jamais. Cette tendance permet l'émergence de nouvelles fonctionnalités, produits et même de toute nouvelles industries. Grâce à la nature visuellement éducative de ce livre, les développeurs Python apprendront les outils pratiques et les concepts dont ils ont besoin pour tirer parti de ces capacités dès aujourd'hui.

Vous apprendrez à exploiter la puissance des grands modèles de langage pré-entraînés pour des cas d'utilisation tels que la création de texte et les résumés ; à créer des systèmes de recherche sémantique qui vont au-delà de la recherche par mots-clés ; à construire des systèmes qui classifient et regroupent des textes pour permettre une compréhension évolutive d'un grand nombre de documents textuels ; et à utiliser des bibliothèques existantes ainsi que des modèles pré-entraînés pour la classification de texte, la recherche et le regroupement.

Ce livre vous montrera également comment :

  • Créer des pipelines LLM avancés pour regrouper des documents textuels et explorer les thèmes auxquels ils appartiennent
  • Développer des moteurs de recherche sémantique qui vont au-delà de la recherche par mots-clés, avec des méthodes telles que la récupération dense et les re-rankers
  • Découvrir divers cas d'utilisation où ces modèles peuvent apporter une valeur ajoutée
  • Comprendre l'architecture des modèles Transformer sous-jacents tels que BERT et GPT
  • Acquérir une compréhension plus approfondie de la manière dont les LLM sont entraînés
  • Optimiser les LLM pour des applications spécifiques avec des méthodes telles que le fine-tuning de modèles génératifs, le fine-tuning contrastif et l'apprentissage en contexte

Jay Alammar est directeur et ingénieur Fellow chez Cohere, un fournisseur pionnier de grands modèles de langage en tant qu'API. Maarten Grootendorst est scientifique des données cliniques senior à la Netherlands Comprehensive Cancer Organisation.

Spécifications principales

Langue
Anglais
thème
Technique & IT
Sous-thème
Informatique
Auteur
Jay AlammarMaarten Grootendorst
Nombre de pages
400
Couverture du livre
Couverture cartonnée
Année
2024
Numéro d'article
47475000

Informations générales

Éditeur
O'Reilly
Catégorie
Livres spécialisés
Date de sortie
30/7/2024
Classement des ventes dans Catégorie Livres spécialisés
183 de 953478

Propriétés du livre

thème
Technique & IT
Sous-thème
Informatique
Langue
Anglais
Auteur
Jay AlammarMaarten Grootendorst
Année
2024
Nombre de pages
400
Couverture du livre
Couverture cartonnée
Année
2024

Contribution climatique volontaire

CO₂-Emission
Contribution climatique

Dimensions du produit

Hauteur
22.66 mm
Largeur
180 mm
Poids
748 g

Dimensions de l’emballage

Longueur
24.30 cm
Largeur
18 cm
Hauteur
2.80 cm
Poids
724 g

30 jours de droit de retour si non ouvert
24 mois Garantie (Bring-in)
1 offre supplémentaire

Comparer les produits

Convient

Critiques et opinions

Taux de recours en garantie

La fréquence à laquelle un produit de cette marque dans la catégorie « Livres spécialisés » présente un défaut au cours des 24 premiers mois.

Source: Digitec Galaxus
  • 1.Macmillan
    0 %
  • 1.Mitp
    0 %
  • 1.O'Reilly
    0 %
  • 1.Orell Füssli
    0 %
  • 1.Patmos
    0 %

Durée de la garantie

Le temps moyen de traitement entre l'arrivée au point de service et le retour chez le client, en jours ouvrables.

Source: Digitec Galaxus
  • O'Reilly
    Données insuffisantes
  • Anaconda
    Données insuffisantes
  • Ariston
    Données insuffisantes
  • Avery Publishing Group
    Données insuffisantes
  • Beck C.H.
    Données insuffisantes

Malheureusement, nous n’avons pas encore assez de données pour cette catégorie pour vous montrer plus de quotas.

Taux de retour

Fréquence à laquelle un produit de cette marque est retourné dans la catégorie « Livres spécialisés ».

Source: Digitec Galaxus
  • 17.Herder
    0,4 %
  • 17.Klett-Cotta
    0,4 %
  • 17.O'Reilly
    0,4 %
  • 17.Rheinwerk
    0,4 %
  • 25.Katholisches Bibelwerk
    0,5 %
Source: Digitec Galaxus