salmaaidli commited on
Commit
d0e7a8b
·
1 Parent(s): efdef8b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +12 -21
README.md CHANGED
@@ -1,35 +1,26 @@
1
  ---
2
  language:
3
  - fr
4
- datasets:
5
- - amazon_reviews_multi
6
- license: mit
7
  ---
8
 
9
- # flaubert_small_cased_sentiment
 
 
 
 
10
 
11
- This is a `flaubert_small_cased` model finetuned for sentiment analysis on product reviews in French. It predicts the sentiment of the review, from `very_negative` (1 star) to `very_positive` (5 stars).
12
 
13
- This model is intended for direct use as a sentiment analysis model for French product reviews, or for further finetuning on related sentiment analysis tasks.
14
-
15
- ## Training data
16
-
17
- The training data consists of the French portion of `amazon_reviews_multi`, supplemented with another 140,000 similar reviews.
18
 
19
  ## Accuracy
20
 
21
- The finetuned model was evaluated on the French test set of `amazon_reviews_multi`.
22
-
23
- - Accuracy (exact) is the exact match on the number of stars.
24
- - Accuracy (off-by-1) is the percentage of reviews where the number of stars the model predicts differs by a maximum of 1 from the number given by the human reviewer.
25
 
 
 
26
 
27
- | Language | Accuracy (exact) | Accuracy (off-by-1) |
28
  | -------- | ---------------------- | ------------------- |
29
- | French | 61.56% | 95.66%
30
-
31
- ## Contact
32
-
33
- [NLP Town](https://www.nlp.town) offers a suite of sentiment models for a wide range of languages, including an improved multilingual model through [RapidAPI](https://rapidapi.com/nlp-town-nlp-town-default/api/multilingual-sentiment-analysis2/).
34
 
35
- Feel free to contact us for questions, feedback and/or requests for similar models.
 
1
  ---
2
  language:
3
  - fr
 
 
 
4
  ---
5
 
6
+ # flaubert_sentiment
7
+ RoBERTa est un modèle d'analyse sentimentale développé par Facebook AI. Il est basé
8
+ sur l'architecture des transformers et est pré-entraîné sur une grande quantité de
9
+ données variées. RoBERTa est capable de comprendre et prédire avec précision le ton
10
+ émotionnel (positif, négatif ou neutre) d'un texte.
11
 
12
+ ## Données d'entrainement
13
 
14
+ Confidentielle.
 
 
 
 
15
 
16
  ## Accuracy
17
 
18
+ Le modèle finalisé a été évalué sur l'ensemble de test français `amazon_reviews_multi`.
 
 
 
19
 
20
+ - La précision (exacte) est la correspondance exacte du nombre d'étoiles.
21
+ - La précision (off-by-1) est le pourcentage de commentaires pour lesquels le nombre d'étoiles prédit par le modèle diffère d'un maximum de 1 par rapport au nombre donné par l'évaluateur humain.
22
 
23
+ | Language | Accuracy (exacte) | Accuracy (off-by-1) |
24
  | -------- | ---------------------- | ------------------- |
25
+ | Français | 61.56% | 95.66%
 
 
 
 
26