Upserts batchen

Vector-databases voor embeddings met Pinecone

James Chapman

Curriculum Manager, DataCamp

Beperkingen bij upserts

 

  1. Snelheid van requests
  2. Grootte van requests

 

  • Batching: requests opsplitsen in kleine chunks

 

Pinecone-snelheidslimieten

1 https://docs.pinecone.io/reference/quotas-and-limits#rate-limits
Vector-databases voor embeddings met Pinecone

Een chunk-functie definiëren

def chunks(iterable, batch_size=100):

it = iter(iterable)
chunk = tuple(itertools.islice(it, batch_size))
while chunk:
yield chunk
chunk = tuple(itertools.islice(it, batch_size))
Vector-databases voor embeddings met Pinecone

Sequentieel batchen

  • Requests splitsen en sequentieel één-voor-één versturen
pc.Pinecone(api_key="YOUR API KEY")
index = pc.Index('datacamp-index')


for chunk in chunks(vectors): index.upsert(vectors=chunk)

Voordelen:

  • Lost snelheids- en groottelimieten op

Nadelen:

  • Erg traag!
Vector-databases voor embeddings met Pinecone

Parallel batchen

  • Requests splitsen en parallel versturen
pc = Pinecone(api_key="YOUR_API_KEY", pool_threads=30)


with pc.Index('datacamp-index', pool_threads=30) as index:
async_results = [index.upsert(vectors=chunk, async_req=True) for chunk in chunks(vectors, batch_size=100)]
[async_result.get() for async_result in async_results]
Vector-databases voor embeddings met Pinecone

Laten we oefenen!

Vector-databases voor embeddings met Pinecone

Preparing Video For Download...