Analisi del sentiment multimodale

Modelli multi-modali con Hugging Face

James Chapman

Curriculum Manager, DataCamp

Vision Language Models (VLM)

Diagramma generale delle architetture vision-language

  • Immagine e testo codificati separatamente
  • Fusione delle feature
  • Rappresentazioni condivise
    • Più task con un solo modello
Modelli multi-modali con Hugging Face

Task di ragionamento visivo

  • VQA: Immagine + domanda → Risposte dirette sul contenuto

Visual question answering con un hotdog

1 https://arxiv.org/pdf/1505.00468
Modelli multi-modali con Hugging Face

Task di ragionamento visivo

  • VQA: Immagine + domanda → Risposte dirette sul contenuto
  • Matching: Immagine + affermazione → Vero/Falso

Esempio di matching con un hotdog e affermazioni associate

Modelli multi-modali con Hugging Face

Task di ragionamento visivo

  • VQA: Immagine + domanda → Risposte dirette sul contenuto
  • Matching: Immagine + affermazione → Vero/Falso
  • Entailment: Immagine + testi a contrasto → Verifica relazioni semantiche

Esempio di entailment con un hotdog e ipotesi di entailment, neutre e contraddittorie

Modelli multi-modali con Hugging Face

Caso d’uso: impatto sul prezzo dell’azione

from datasets import load_dataset
dset = "RealTimeData/bbc_news_alltime"
dataset = load_dataset(dset, '2017-01', 
                       split="train")


image = dataset[87]["top_image"] content = dataset[87]["content"] print(content)
'Ford\'s decision to cancel a $1.6bn 
investment in Mexico and 
invest an extra $700m in Michigan ...

immagine da un articolo di news su investimenti nella produzione di auto

Modelli multi-modali con Hugging Face

Qwen 2 VLM

from transformers import Qwen2VLForConditionalGeneration
from qwen_vl_utils import process_vision_info


vl_model = Qwen2VLForConditionalGeneration.from_pretrained( "Qwen/Qwen2-VL-2B-Instruct", device_map="auto", torch_dtype="auto" )
Modelli multi-modali con Hugging Face

Il preprocessore

from transformers import Qwen2VLProcessor

min_pixels = 224 * 224
max_pixels = 448 * 448
vl_model_processor = Qwen2VLProcessor.from_pretrained(
    "Qwen/Qwen2-VL-2B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels
)
Modelli multi-modali con Hugging Face

Prompt multimodali

text_query = f"Is the sentiment of the following content good or bad for the Ford share price:
{article_text}. Provide reasoning."


chat_template = [ { "role": "user", "content": [ {"type": "image", "image": article_image}, {"type": "text", "text": text_query} ] } ]
Modelli multi-modali con Hugging Face

Classificazione con VLM

text = vl_model_processor.apply_chat_template(chat_template, tokenize=False,
                                              add_generation_prompt=True)

image_inputs, _ = process_vision_info(chat_template)
inputs = vl_model_processor(text=[text], images=image_inputs, padding=True, return_tensors="pt")
generated_ids = vl_model.generate(**inputs, max_new_tokens=500)
generated_ids_trimmed = [out_ids[len(in_ids) :] for in_ids, out_ids\ in zip(inputs.input_ids, generated_ids)]
Modelli multi-modali con Hugging Face

Classificazione con VLM

output_text = vl_model_processor.batch_decode(
    generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text[0])
The sentiment of the provided text is negative. The author is expressing concern and
skepticism ...
Modelli multi-modali con Hugging Face

Passons à la pratique !

Modelli multi-modali con Hugging Face

Preparing Video For Download...