Fijn-afstemming

Concepten van Large Language Models (LLMs)

Vidhi Chugh

AI strategist and ethicist

Waar zijn we?

Voortgangsgrafiek die laat zien dat we bij de fine-tuningfase zijn

Concepten van Large Language Models (LLMs)

 

  • Pre-training

Een afbeelding van schoolkinderen als pre-training-analogie

          Schoolopleiding

 

  • Fine-tuning

Een afbeelding van universiteitsstudenten als fine-tuning-analogie

        Universitaire specialisatie
1 Freepik
Concepten van Large Language Models (LLMs)

Uitdagingen van ‘grootte’

  • Fine-tuning kan helpen
  • Krachtige computers
  • Efficiënte trainingsmethoden
  • Grote hoeveelheden trainingsdata

Een afbeelding die datavolume, trainingstijd en rekenkracht als uitdagingen voor LLM’s toont

Concepten van Large Language Models (LLMs)

Rekenkracht

  • Geheugen

  • Verwerkingskracht

  • Infrastructuur

  • Duur

  • LLM:
    • Honderdduizenden Central Processing Units (CPU’s)
    • Tienduizenden Graphic Processing Units (GPU’s)
  • Een pc: 4-8 CPU en 1-2 GPU’s

Man die werkt op een computer aangesloten op een grote server

1 Freepik
Concepten van Large Language Models (LLMs)

Efficiënt model trainen

Illustratie die een deep-learningmodel voorstelt

  • Trainingstijd is enorm

 

  • Duurt weken tot maanden

 

  • Efficiënt trainen = kortere trainingstijd

 

  • 355 jaar rekentijd op één GPU
Concepten van Large Language Models (LLMs)

Data-beschikbaarheid

 

  • Hoge-kwaliteit data nodig
  • Om taalkundige nuances en complexiteit te leren
  • Enkele honderden gigabytes (GB) tekstdata

    • Meer dan een miljoen boeken
  • Enorme hoeveelheid data

  Twee stapels overvolle mappen als symbool voor veel data

Concepten van Large Language Models (LLMs)

De uitdagingen aanpakken

  • Fine-tuning
    • Pakt enkele van deze uitdagingen aan
    • Past een voorgetraind model aan

 

  • Voorgetraind model
    • Getraind op algemene datasets
    • Niet geoptimaliseerd voor specifieke taken
    • Is fijn-af te stemmen voor een specifiek probleem

Mensen werken aan een oversized laptop met tools en tandwielen als symbool voor fine-tuning

Concepten van Large Language Models (LLMs)

Fine-tuning vs. Pre-training

  • Fine-tuning

  • Compute

    • 1-2 CPU’s en GPU’s

 

  • Trainingstijd
    • Uren tot dagen

 

  • Data
    • ~1 gigabyte
  • Pre-training

  • Compute

    • Duizenden CPU’s en GPU’s

 

  • Trainingstijd
    • Weken tot maanden

 

  • Data
    • Honderden gigabytes
Concepten van Large Language Models (LLMs)

Laten we oefenen!

Concepten van Large Language Models (LLMs)

Preparing Video For Download...