--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: In den vergangenen Monaten ist die Kritik an den Aktionen von Klima-Aktivismus-Gruppen wie Fridays for Future und der Letzten Generation gewachsen. Gegner bemängeln, dass die häufig spektakulären Protestformen, wie Straßenblockaden und Störungen öffentlicher Veranstaltungen, nicht nur Unmut in der Bevölkerung hervorrufen, sondern auch das Vertrauen in die Anliegen der Aktivisten untergraben könnten. Kritiker argumentieren, dass solche Aktionen den gesellschaftlichen Dialog erschweren und statt konstruktiver Debatte eher polarisierend wirken. Befürchtet wird zudem, dass die Radikalität der Methoden die Bereitschaft zur Zusammenarbeit seitens der Politik und Wirtschaft mindern könnte. - text: Ein weiteres Mal versuchen linke Politiker, uns ihre ideologische Agenda aufzuzwingen, indem sie ein nationales Tempolimit auf Autobahnen durchdrücken wollen. Unter dem Deckmantel des Umweltschutzes wird hier eine Einschränkung unserer Freiheit propagiert, während die tatsächlichen Auswirkungen auf den CO2-Ausstoß minimal bleiben. Die wirtschaftlichen Folgen für die deutsche Automobilindustrie und den Tourismus scheinen völlig außer Acht gelassen zu werden. Statt die Bürger zu bevormunden, sollte die Politik besser in den Ausbau der Infrastruktur und innovative Technologien investieren. - text: In Deutschland formiert sich zunehmender Widerstand gegen geplante Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen. Kritik kommt vor allem von Experten, die auf die hohen Kosten und den aktuellen Mangel an Fachkräften hinweisen, die für Installation und Wartung benötigt werden. Zudem wird befürchtet, dass die Energienetze nicht ausreichend für einen drastischen Anstieg des Stromverbrauchs durch Wärmepumpen gerüstet sind. Viele Bürger sind ebenfalls besorgt über mögliche finanzielle Belastungen und die komplexe Umstellung ihrer Heizsysteme. - text: Die neueste Gesetzesinitiative zur Einführung eines nationalen Tempolimits auf Autobahnen ist ein weiterer Schlag gegen die Freiheit der deutschen Autofahrer. Während unsere Politiker in ihren klimatisierten Büros sitzen, sollen wir uns mit einem Tempolimit abfinden, das weder die Umwelt rettet noch die Verkehrssicherheit signifikant erhöht. Es ist ein Paradebeispiel für Symbolpolitik, die Bürgerrechte einschränkt, ohne wirkliche Lösungen zu bieten. Stattdessen sollten wir in moderne Verkehrstechnologien investieren, die Fortschritt und Freiheit vereinen, anstatt die Autobahn zur Schneckenbahn zu degradieren. - text: Die Debatte um ein nationales Tempolimit auf deutschen Autobahnen gewinnt erneut an Fahrt, nachdem mehrere Gesetzesinitiativen positive Auswirkungen auf Umwelt und Verkehrssicherheit versprechen. Befürworter verweisen auf Studien, die zeigen, dass ein Tempolimit von 120 km/h den CO2-Ausstoß deutlich reduzieren könnte. Zudem könnte die Maßnahme die Zahl schwerer Unfälle verringern und so zu einer höheren Sicherheit im Straßenverkehr beitragen. Kritiker hingegen warnen vor Einschränkungen der individuellen Freiheit, doch der gesellschaftliche Diskurs scheint sich zunehmend zugunsten der Umwelt- und Sicherheitsvorteile zu verschieben. metrics: - accuracy pipeline_tag: text-classification library_name: setfit inference: true base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 model-index: - name: SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: accuracy value: 0.9333333333333333 name: Accuracy --- # SetFit with sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance - **Maximum Sequence Length:** 128 tokens - **Number of Classes:** 2 classes ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:-----------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | supportive | | | opposed | | ## Evaluation ### Metrics | Label | Accuracy | |:--------|:---------| | **all** | 0.9333 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the 🤗 Hub model = SetFitModel.from_pretrained("cbpuschmann/MiniLM-klimacoder_v0.3") # Run inference preds = model("In Deutschland formiert sich zunehmender Widerstand gegen geplante Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen. Kritik kommt vor allem von Experten, die auf die hohen Kosten und den aktuellen Mangel an Fachkräften hinweisen, die für Installation und Wartung benötigt werden. Zudem wird befürchtet, dass die Energienetze nicht ausreichend für einen drastischen Anstieg des Stromverbrauchs durch Wärmepumpen gerüstet sind. Viele Bürger sind ebenfalls besorgt über mögliche finanzielle Belastungen und die komplexe Umstellung ihrer Heizsysteme.") ``` ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:--------|:----| | Word count | 53 | 78.9917 | 112 | | Label | Training Sample Count | |:-----------|:----------------------| | opposed | 122 | | supportive | 118 | ### Training Hyperparameters - batch_size: (32, 32) - num_epochs: (1, 1) - max_steps: -1 - sampling_strategy: oversampling - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - eval_max_steps: -1 - load_best_model_at_end: False ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:------:|:----:|:-------------:|:---------------:| | 0.0011 | 1 | 0.2533 | - | | 0.0551 | 50 | 0.2196 | - | | 0.1101 | 100 | 0.0449 | - | | 0.1652 | 150 | 0.0095 | - | | 0.2203 | 200 | 0.0095 | - | | 0.2753 | 250 | 0.0054 | - | | 0.3304 | 300 | 0.006 | - | | 0.3855 | 350 | 0.0032 | - | | 0.4405 | 400 | 0.0052 | - | | 0.4956 | 450 | 0.0036 | - | | 0.5507 | 500 | 0.0029 | - | | 0.6057 | 550 | 0.0043 | - | | 0.6608 | 600 | 0.004 | - | | 0.7159 | 650 | 0.0039 | - | | 0.7709 | 700 | 0.0031 | - | | 0.8260 | 750 | 0.0057 | - | | 0.8811 | 800 | 0.0038 | - | | 0.9361 | 850 | 0.0058 | - | | 0.9912 | 900 | 0.0043 | - | ### Framework Versions - Python: 3.10.12 - SetFit: 1.1.0 - Sentence Transformers: 3.2.1 - Transformers: 4.42.2 - PyTorch: 2.5.1+cu121 - Datasets: 3.1.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ```