成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用Hugging Face Transformer檢測文本中的情緒 原創(chuàng)

發(fā)布于 2024-8-28 08:16
瀏覽
0收藏

本文介紹了如何利用Hugging Face預訓練語言模型對推文隱藏的情緒進行分類。

Hugging Face上有各種基于Transformer的語言模型,專門用于處理語言理解和語言生成任務,包括但不限于:

  • 文本分類
  • 命名實體識別(NER)
  • 文本生成
  • 問題回答
  • 摘要
  • 翻譯

文本分類任務的一個特殊又很常見的案例是情緒分析,其目的是識別給定文本的情緒。“最簡單”的一類情緒分析語言模型經過訓練后,確定輸入文本(比如客戶對產品的評價)是積極的還是消極的,或者是積極的、消極的還是中立的。這兩個具體問題分別被表述為二元分類任務或多類分類任務。

還有一些語言模型雖然仍可以歸為情緒分析模型,但經過訓練后,可以將文本分類為幾種情緒,比如憤怒、快樂和悲傷等。

這篇基于Python的教程側重于加載和闡明使用一個Hugging Face預訓練模型來分類與輸入文本相關的主要情緒。我們將使用在Hugging Face中心上公開可用的情緒數(shù)據(jù)集。這個數(shù)據(jù)集含有成千上萬條用英語寫的推文消息。

加載數(shù)據(jù)集

我們將運行以下指令,加載情緒數(shù)據(jù)集中的訓練數(shù)據(jù):

!pip install datasets
from datasets import load_dataset
all_data = load_dataset("jeffnyman/emotions")
train_data = all_data["train"]

下面是train_data變量中訓練子集所包含內容的摘要:

Dataset({
features: ['text', 'label'],
num_rows: 16000
})

情緒數(shù)據(jù)集中的訓練內容含有16000個與推文消息相關的實例。每個實例有兩個特征:一個輸入特征含有實際的消息文本,一個輸出特征或標簽含有其相關的情緒(用數(shù)字標識符標識)。

0:悲傷

1:快樂

2:喜愛

3:憤怒

4:恐懼

5:驚喜

比如說,訓練內容中的第一個標記實例被歸類為“悲傷”情緒:

train_data [0]

輸出:

{'text': 'i didnt feel humiliated', 'label': 0}

加載語言模型

一旦我們加載了數(shù)據(jù),下一步就是從Hugging Face加載一個合適的預訓練語言模型,用于我們的目標情緒檢測任務。使用Hugging Face的Transformer庫加載和使用語言模型有兩種主要方法:

  • 管道提供了一個非常高的抽象級別,可以準備加載語言模型,并立即對其執(zhí)行推理,只需很少的代碼行,不過代價是幾乎沒什么可配置性。
  • 自動類提供了較低層次的抽象,需要更多的編碼技能,但在調整模型參數(shù)以及定制文本預處理步驟(如標記化)方面提供了更大的靈活性。

為了方便起見,本教程側重于使用管道來加載模型。管道要求起碼指定語言任務的類型,并指定要加載的模型名(可選)。由于情緒檢測是文本分類問題的一種非常特殊的形式,因此在加載模型時使用的任務參數(shù)應該是“text-classification”。

from transformers import pipeline
classifier = pipeline("text-classification", 
model="j-hartmann/emotion-english-distilroberta-base")

另一方面,強烈建議用“model”參數(shù)指定Hugging Face中心中一個特定模型的名稱,該模型能夠解決我們的特定情緒檢測任務。否則,默認情況下,我們可能會為這個特定的6類分類問題加載一個沒有經過數(shù)據(jù)訓練的文本分類模型。

你可能會問自己:“我怎么知道使用哪個模型名稱?”。答案很簡單:在Hugging Face網(wǎng)站上搜索一番,找到合適的模型,或者根據(jù)特定數(shù)據(jù)集(比如情緒數(shù)據(jù))訓練的模型。

下一步是開始進行預測。管道使得這個推理過程非常簡單,只需要調用我們新實例化的管道變量,并將輸入文本作為參數(shù)來傳遞:

example_tweet = "I love hugging face transformers!"
prediction = classifier(example_tweet)
print(prediction)

結果,我們得到一個預測標簽和一個置信度分數(shù):這個分數(shù)越接近1,所做的預測就越“可靠”。

[{'label': 'joy', 'score': 0.9825918674468994}]

所以,我們的輸入例子“I love hugging face transformers!”明確地傳達了一種喜悅的情緒。

你可以將多個輸入文本傳遞給管道以同時執(zhí)行幾個預測,如下所示:

example_tweets = ["I love hugging face transformers!", "I really like coffee 
but it's too bitter..."]
prediction = classifier(example_tweets)
print(prediction)

這個例子中的第二個輸入對于模型執(zhí)行自信分類更具挑戰(zhàn)性:

[{'label': 'joy', 'score': 0.9825918674468994}, {'label': 'sadness', 'score': 
0.38266682624816895}]

最后,我們還可以從數(shù)據(jù)集傳遞一批實例,比如之前加載的“情緒”數(shù)據(jù)。這個例子將前10個訓練輸入傳遞給我們的語言模型管道,對它們的情緒進行分類,然后輸出一個含有每個預測標簽的列表,將他們的置信度分數(shù)放在一邊:

train_batch = train_data[:10]["text"]
predictions = classifier(train_batch)
labels = [x['label'] for x in predictions]
print(labels)

輸出:

['sadness', 'sadness', 'anger', 'joy', 'anger', 'sadness', 'surprise', 
'fear', 'joy', 'joy']

為了比較,下面是這10個訓練實例的原始標簽:

print(train_data[:10]["label"])

輸出:

[0, 0, 3, 2, 3, 0, 5, 4, 1, 2]

如果觀察每個數(shù)字標識符所關聯(lián)的情緒,我們可以看到,10個預測中有7個與這10個實例的實際標簽相匹配。

你已知道如何使用Hugging Face transformer模型來檢測文本情緒,何不探究預訓練的語言模型可以提供幫助的其他用例和語言任務呢?

原文標題:Using Hugging Face Transformers for Emotion Detection in Text,作者:Iván Palomares Carrascosa

鏈接:https://www.kdnuggets.com/using-hugging-face-transformers-for-emotion-detection-in-text。

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2024-8-28 10:58:34修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 青青草在线视频免费观看 | 精品欧美乱码久久久久久1区2区 | 久久精品欧美电影 | 亚洲精品一区二区久 | www亚洲精品 | 精品一区在线看 | 91综合网 | 草草视频在线免费观看 | 久久久久国产一级毛片高清网站 | 最新伦理片 | 激情欧美日韩一区二区 | 精品一区二区三区四区 | 精品一区二区久久久久久久网站 | 一区二区三区在线 | 欧美中文字幕在线 | 一区二区视频 | 国产第一页在线观看 | 美女亚洲一区 | 四虎永久免费黄色影片 | 亚洲a人| 亚洲精品视频免费观看 | 日韩在线观看一区 | 免费观看的黄色网址 | 国产欧美精品区一区二区三区 | 国产亚洲一区二区三区 | 在线成人免费视频 | 激情视频中文字幕 | 911精品国产 | www.一区二区 | 免费a网站| 久久精品亚洲精品国产欧美 | 色免费看 | 黄色免费在线观看 | 蜜桃一区二区三区 | 美女视频黄色的 | 国产综合久久 | 亚洲欧美激情精品一区二区 | 在线观看av网站 | 天天干狠狠干 | 久久精品这里精品 | 精品福利在线视频 |