import torch import os import requests import spaces api_token = os.environ.get("TOKEN") API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-8B-Instruct" headers = {"Authorization": f"Bearer {api_token}"} @spaces.GPU def query(payload): response = requests.post(API_URL, headers=headers, json=payload) return response.json() output = query({ "inputs": " test ", }) def analyze_sentiment(text): # Construire le prompt prompt = f"""Tu es un analyseur de sentiment. Ton rôle est d'évaluer le sentiment général du texte fourni. Réponds uniquement par 'positif' ou 'négatif'. N'ajoute aucune explication. Voici le texte à analyser : {text} Sentiment :""" # Tokenizer le prompt inputs = prompt # Générer la réponse with torch.no_grad(): outputs = headers.generate( **inputs, max_new_tokens=1, num_return_sequences=1, temperature=0.1, top_p=0.9, # Ajuster le top_p pour contrôler la diversité ) # Décoder et retourner la réponse response = outputs[0] return response.split("Sentiment :")[-1].strip()