Multimodale sentimentanalyse

Multi-modale modellen met Hugging Face

James Chapman

Curriculum Manager, DataCamp

Vision-Language Models (VLM's)

Diagram van algemene vision-language modelarchitecturen

  • Afbeelding en tekst apart gecodeerd
  • Featurefusie
  • Gedeelde representaties maken
    • Meerdere taken met één model
Multi-modale modellen met Hugging Face

Visuele redeneertaken

  • VQA: Afbeelding + vraag → Directe antwoorden over de inhoud

Visual question answering met een hotdog

1 https://arxiv.org/pdf/1505.00468
Multi-modale modellen met Hugging Face

Visuele redeneertaken

  • VQA: Afbeelding + vraag → Directe antwoorden over de inhoud
  • Matching: Afbeelding + bewering → Waar/Onwaar-checks

Voorbeeld matching met een hotdog en bijbehorende beweringen

Multi-modale modellen met Hugging Face

Visuele redeneertaken

  • VQA: Afbeelding + vraag → Directe antwoorden over de inhoud
  • Matchings: Afbeelding + bewering → Waar/Onwaar-checks
  • Entailment: Afbeelding + contrasterende teksten → Semantische-relatiecheck

Voorbeeld entailment met een hotdog en entailment-, neutrale en tegensprekende hypothesen

Multi-modale modellen met Hugging Face

Use case: effect op aandelenkoers

from datasets import load_dataset
dset = "RealTimeData/bbc_news_alltime"
dataset = load_dataset(dset, '2017-01', 
                       split="train")


image = dataset[87]["top_image"] content = dataset[87]["content"] print(content)
'Ford\'s decision to cancel a $1.6bn 
investment in Mexico and 
invest an extra $700m in Michigan ...

afbeelding uit een nieuwsartikel over investeringen in auto-industrie

Multi-modale modellen met Hugging Face

Qwen 2 VLM's

from transformers import Qwen2VLForConditionalGeneration
from qwen_vl_utils import process_vision_info


vl_model = Qwen2VLForConditionalGeneration.from_pretrained( "Qwen/Qwen2-VL-2B-Instruct", device_map="auto", torch_dtype="auto" )
Multi-modale modellen met Hugging Face

De preprocessor

from transformers import Qwen2VLProcessor

min_pixels = 224 * 224
max_pixels = 448 * 448
vl_model_processor = Qwen2VLProcessor.from_pretrained(
    "Qwen/Qwen2-VL-2B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels
)
Multi-modale modellen met Hugging Face

Multimodale prompts

text_query = f"Is the sentiment of the following content good or bad for the Ford share price:
{article_text}. Provide reasoning."


chat_template = [ { "role": "user", "content": [ {"type": "image", "image": article_image}, {"type": "text", "text": text_query} ] } ]
Multi-modale modellen met Hugging Face

VLM-classificatie

text = vl_model_processor.apply_chat_template(chat_template, tokenize=False,
                                              add_generation_prompt=True)

image_inputs, _ = process_vision_info(chat_template)
inputs = vl_model_processor(text=[text], images=image_inputs, padding=True, return_tensors="pt")
generated_ids = vl_model.generate(**inputs, max_new_tokens=500)
generated_ids_trimmed = [out_ids[len(in_ids) :] for in_ids, out_ids\ in zip(inputs.input_ids, generated_ids)]
Multi-modale modellen met Hugging Face

VLM-classificatie

output_text = vl_model_processor.batch_decode(
    generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text[0])
The sentiment of the provided text is negative. The author is expressing concern and
skepticism ...
Multi-modale modellen met Hugging Face

Laten we oefenen!

Multi-modale modellen met Hugging Face

Preparing Video For Download...