成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

萬字 AI 干貨及感悟分享

人工智能
最近一直在研究 AI Agent 在零代碼平臺中的應(yīng)用, 特地研究并總結(jié)了一份AI學(xué)習(xí)的干貨, 方便大家快速理解LLM, 并熟悉主流的AI大模型框架, 以及如何基于AI, 來改善我們傳統(tǒng)的工作模式.

嗨, 大家好, 我是徐小夕.

之前一直在社區(qū)分享零代碼&低代碼的技術(shù)實(shí)踐,也陸陸續(xù)續(xù)設(shè)計(jì)并開發(fā)了多款可視化搭建產(chǎn)品,比如:

  • H5-Dooring(頁面可視化搭建平臺)
  • V6.Dooring(可視化大屏搭建平臺)
  • 橙子6試卷(表單搭建引擎)
  • Nocode/WEP 文檔知識引擎

最近一直在研究 AI Agent 在零代碼平臺中的應(yīng)用, 特地研究并總結(jié)了一份AI學(xué)習(xí)的干貨, 方便大家快速理解LLM, 并熟悉主流的AI大模型框架, 以及如何基于AI, 來改善我們傳統(tǒng)的工作模式.

圖片圖片

上面是本文的核心大綱, 接下來開始我的分享和總結(jié)。

LLM介紹

1. LLM概念

大語言模型(Large Language Model) :通常是具有大規(guī)模參數(shù)和計(jì)算能力的自然語言處理模型,例如 OpenAI 的 GPT-3 模型。這些模型可以通過大量的數(shù)據(jù)和參數(shù)進(jìn)行訓(xùn)練,以生成人類類似的文本或回答自然語言的問題。大型語言模型在自然語言處理、文本生成和智能對話等領(lǐng)域有廣泛應(yīng)用。

2. 大模型分類

按照輸入數(shù)據(jù)類型的不同,大模型主要可以分為以下三大類:

圖片圖片

語言大模型(NLP): 是指在自然語言處理(Natural Language Processing,NLP)領(lǐng)域中的一類大模型,通常用于處理文本數(shù)據(jù)和理解自然語言。這類大模型的主要特點(diǎn)是它們在大規(guī)模語料庫上進(jìn)行了訓(xùn)練,以學(xué)習(xí)自然語言的各種語法、語義和語境規(guī)則。例如:GPT 系列(OpenAI)。

視覺大模型(CV): 是指在計(jì)算機(jī)視覺(Computer Vision,CV)領(lǐng)域中使用的大模型,通常用于圖像處理和分析。這類模型通過在大規(guī)模圖像數(shù)據(jù)上進(jìn)行訓(xùn)練,可以實(shí)現(xiàn)各種視覺任務(wù), 比如圖像分類, 人臉識別, 目標(biāo)檢測。

多模態(tài)大模型: 是指能夠處理多種不同類型數(shù)據(jù)的大模型,例如文本、圖像、音頻等多模態(tài)數(shù)據(jù)。這類模型結(jié)合了 NLP 和 CV 的能力,以實(shí)現(xiàn)對多模態(tài)信息的綜合理解和分析,從而能夠更全面地理解和處理復(fù)雜的數(shù)據(jù)。例如:DingoDB 多模向量數(shù)據(jù)庫(九章云極 DataCanvas)、DALL-E(OpenAI)、悟空畫畫(華為)、midjourney。

3.大語言模型的工作機(jī)制

圖片圖片

最知名的大型語言模型(LLM)架構(gòu)基本都是Transformer架構(gòu)。典型的Transformer模型在處理輸入數(shù)據(jù)時有四個主要步驟:

1. 詞嵌入: 模型進(jìn)行詞嵌入,將單詞轉(zhuǎn)換為高維向量表示。然后,數(shù)據(jù)通過多個Transformer層進(jìn)行傳遞。這有助于模型理解單詞的含義,并基于此進(jìn)行預(yù)測。

2.位置編碼(Positional Encoding): 位置編碼是幫助模型確定單詞在序列中的位置的技術(shù)。位置編碼主要用于跟蹤單詞的順序。例如,當(dāng)將句子”我喜歡貓”輸入到模型時,位置編碼可以幫助模型區(qū)分”我”是在句子的開頭,而”貓”是在句子的結(jié)尾。這對于模型理解上下文和生成連貫的輸出非常重要。

3.自注意力機(jī)制(Self-Attention Mechanism) : 自注意力機(jī)制是Transformer模型的核心組成部分。它允許模型在生成輸出時,有效地在輸入序列的不同位置進(jìn)行交互和關(guān)注。自注意力機(jī)制的關(guān)鍵思想是計(jì)算輸入序列中每個單詞之間的相關(guān)性,并將這些相關(guān)性用于權(quán)衡模型在每個位置的關(guān)注程度。

4. 前饋神經(jīng)網(wǎng)絡(luò)(Feed-forward Neural Network): 前饋神經(jīng)網(wǎng)絡(luò)對每個位置的表示進(jìn)行進(jìn)一步的處理。前饋神經(jīng)網(wǎng)絡(luò)是由多個全連接層組成的,其中每個層都有一組參數(shù),用于將輸入進(jìn)行非線性變換。這個過程可以幫助模型在生成輸出時引入更多的復(fù)雜性和靈活性。

二.LangChain原理和應(yīng)用案例

Langchain 是一個開源框架,它允許開發(fā)人員將類似 GPT-4 這樣的大型語言模型與外部的計(jì)算和數(shù)據(jù)源結(jié)合起來, 用于提升大型語言模型(LLMs)的功能。

圖片圖片

它提供了 Python 和 TypeScript的軟件包。

Langchain 通過三個核心組件實(shí)現(xiàn)增強(qiáng):

  • Compents“組件”: 為LLMs提供接口封裝、模板提示和信息檢索索引;
  • Chains“鏈”: 它將不同的組件組合起來解決特定的任務(wù),比如在大量文本中查找信息;
  • Agents“代理”: 它們使得LLMs能夠與外部環(huán)境進(jìn)行交互,例如通過;

Langchain 的這種結(jié)構(gòu)設(shè)計(jì)使LLMs不僅能夠處理文本,還能夠在更廣泛的應(yīng)用環(huán)境中進(jìn)行操作和響應(yīng),大大擴(kuò)展了它們的應(yīng)用范圍和有效性。

圖片圖片

有點(diǎn)類似java的JDBC, 為 Java 開發(fā)人員提供了一種統(tǒng)一的方式來訪問不同數(shù)據(jù)庫,使得在不同數(shù)據(jù)庫之間切換更加方便。

1.LangChain的工作流程

圖片圖片

  1. 提問:用戶提出問題;
  2. 向語言模型查詢:問題被轉(zhuǎn)換成向量表示,用于在向量數(shù)據(jù)庫中進(jìn)行相似性搜索;
  3. 獲取相關(guān)信息:從向量數(shù)據(jù)庫中提取相關(guān)信息塊;
  4. 輸入給語言模型:將相關(guān)信息輸入給語言模型;
  5. 生成答案或執(zhí)行操作:語言模型結(jié)合初始問題和相關(guān)信息,提供答案或執(zhí)行相應(yīng)操作。

2. 應(yīng)用場景

LangChain 的應(yīng)用場景十分廣泛,以下是一些常見的應(yīng)用場景和案例:

  1. 文本總結(jié):可以對長篇文章、書籍、報(bào)告等文本進(jìn)行總結(jié),提取關(guān)鍵信息,例如對新聞文章進(jìn)行摘要,幫助讀者快速了解主要內(nèi)容。
  2. 文檔問答:基于文檔內(nèi)容進(jìn)行問答,例如針對產(chǎn)品手冊、技術(shù)文檔等,用戶提出問題,系統(tǒng)根據(jù)文檔中的信息給出準(zhǔn)確回答。
  3. 信息抽取:從大量文本中抽取結(jié)構(gòu)化的信息,如從簡歷中提取姓名、聯(lián)系方式、工作經(jīng)歷等關(guān)鍵內(nèi)容。
  4. 聊天機(jī)器人:構(gòu)建具備記憶能力的聊天機(jī)器人,能夠與用戶進(jìn)行多輪對話,并記住之前的對話內(nèi)容,提供更個性化的服務(wù)。例如在線客服機(jī)器人,能夠理解用戶的問題并提供解決方案。
  5. 智能問答系統(tǒng):應(yīng)用于智能客服、智能助手等,回答各種問題,提供相關(guān)的知識和信息。
  6. 代碼理解與分析:分析代碼,并從代碼中獲取邏輯,同時也支持代碼相關(guān)的問答。
  7. 語言翻譯:雖然 LangChain 本身不直接進(jìn)行語言翻譯,但可以與其他翻譯工具或模型結(jié)合,實(shí)現(xiàn)翻譯功能。
  8. 數(shù)據(jù)庫交互:從數(shù)據(jù)庫或類數(shù)據(jù)庫內(nèi)容中抽取數(shù)據(jù)信息,實(shí)現(xiàn)對數(shù)據(jù)庫的查詢和操作。
  9. 內(nèi)容生成:生成文章、故事、詩歌等各種文本內(nèi)容。
  10. API 交互:通過對 API 文檔的閱讀和理解,向真實(shí)世界的 API 發(fā)送請求并獲取數(shù)據(jù),例如調(diào)用天氣預(yù)報(bào) API 來獲取天氣信息并回答用戶的相關(guān)問題。

三. AI Agents 原理和應(yīng)用案例

AI Agents(人工智能代理)的原理是通過感知環(huán)境、進(jìn)行決策和執(zhí)行動作來實(shí)現(xiàn)特定目標(biāo)。它通常包含規(guī)劃、記憶、工具和行動等關(guān)鍵模塊,其工作流程大致如下:

  1. 目標(biāo)初始化:為 AI Agents 設(shè)定清晰的目標(biāo),它們利用核心語言模型(如 GPT-3.5 或 GPT-4)來理解這些目標(biāo),并啟動相應(yīng)的行動計(jì)劃;
  2. 任務(wù)列表創(chuàng)建:根據(jù)設(shè)定的目標(biāo)生成一系列任務(wù),確定任務(wù)的優(yōu)先級、規(guī)劃執(zhí)行順序,并為可能的意外情況做好準(zhǔn)備;
  3. 信息收集:收集相關(guān)信息,這可能包括搜索互聯(lián)網(wǎng)、訪問數(shù)據(jù)庫或與其他 AI 模型交互等,以執(zhí)行特定任務(wù);
  4. 數(shù)據(jù)管理和策略細(xì)化:不斷管理和分析收集到的數(shù)據(jù),根據(jù)數(shù)據(jù)和目標(biāo)調(diào)整策略;
  5. 執(zhí)行任務(wù):基于規(guī)劃和記憶來執(zhí)行具體的行動,這可能包括與外部世界互動,或通過工具的調(diào)用來完成一個動作;
  6. 學(xué)習(xí)和優(yōu)化:從每次交互和任務(wù)執(zhí)行中學(xué)習(xí),不斷優(yōu)化自身的性能和策略,以更好地適應(yīng)新情況和實(shí)現(xiàn)目標(biāo)。

大白話來說就是一種能自主實(shí)現(xiàn)目標(biāo)的“個體”. 類似如下流程:

圖片圖片

我們將場景抽象成模型, 大致長下面這個樣子:

圖片圖片

1. 開發(fā)一個AI Agent的步驟

  • 確定目標(biāo)和功能:明確你希望 AI Agent 實(shí)現(xiàn)的具體目標(biāo)和具備的功能。
  • 選擇合適的技術(shù)和框架:根據(jù)需求選擇適合的人工智能技術(shù),如深度學(xué)習(xí)框架等。
  • 數(shù)據(jù)收集和準(zhǔn)備:收集和整理與目標(biāo)相關(guān)的數(shù)據(jù),進(jìn)行清洗和預(yù)處理。
  • 模型訓(xùn)練:使用收集的數(shù)據(jù)訓(xùn)練模型,調(diào)整參數(shù)以優(yōu)化性能。
  • 模型評估和優(yōu)化:對訓(xùn)練好的模型進(jìn)行評估,根據(jù)結(jié)果進(jìn)行優(yōu)化和改進(jìn)。
  • 集成和部署:將模型與相關(guān)系統(tǒng)集成,并進(jìn)行部署和測試。

使用通義千問實(shí)現(xiàn)AI Agent的案例:

要使用通義千問實(shí)現(xiàn)一個 AI Agent,我們可以參考下面的步驟:

  • 安裝所需的庫:使用 pip 安裝qwen-agent命令為pip install -u qwen-agent
  • 準(zhǔn)備模型服務(wù):你可以選擇使用阿里云的 Dashscope 提供的模型服務(wù),或者自行部署和使用開源的通義千問模型服務(wù)。如果使用 Dashscope,需確保設(shè)置了環(huán)境變量
  • 開發(fā)自己的 agent:以下是一個簡單的示例,創(chuàng)建一個能夠讀取 PDF 文件和利用工具的代理。

首先,添加一個自定義工具,例如圖片生成工具:

import urllib.parse  
import json5  
from qwen_agent.tools.base import basetool, register_tool  
  
@register_tool('my_image_gen')  
class myimagegen(basetool):  
    description = 'aipainting(image generation) service, input text description, and return the image url drawn based on text information.'  
    parameters = ({  
        'name': 'prompt',  
        'type':'string',  
        'description': 'detailed description of the desired image content, in english',  
       'equired': True  
    })  
  
    def call(self, params: str, **kwargs) -> str:  
        prompt = json5.loads(params)('prompt')  
        prompt = urllib.parse.quote(prompt)  
        return json5.dumps(  
            {'image_url': f'https://image.pollinations.ai/prompt/{prompt}'},  
            ensure_ascii=False)

然后,配置使用的 LLM 模型:

llm_cfg = {  
   'odel': 'qwen-max',  
   'odel_server': 'dashscope',  
   #'api_key': 'your_dashscope_api_key',  # 可根據(jù)實(shí)際情況設(shè)置或使用環(huán)境變量  
   # 可選的生成配置,用于調(diào)整生成參數(shù)  
   'generate_cfg': {  
        'top_p': 0.8  
    }  
}

接下來,創(chuàng)建 agent:

from qwen_agent.agents import assistant  
  
system_instruction = '''you are a helpful assistant.  
after receiving the user's request, you should:  
-first draw an image and obtain the image url,  
-then run code `request.get(image_url)` to download the image,  
-and finally select an image operation from the given document to process the image.  
please show the image using `plt.show()`.'''  
  
tools = ('my_image_gen', )  # 這里添加你需要的工具  
  
agent = assistant(system_instructinotallow=system_instruction, tools=tools, llm_cfg=llm_cfg)

最后,我們可以以聊天機(jī)器人的形式運(yùn)行這個助理,與它進(jìn)行交互并執(zhí)行相關(guān)任務(wù)。請注意,這只是一個基本的示例,實(shí)際開發(fā)中可能需要根據(jù)具體需求進(jìn)一步擴(kuò)展和定制 agent 的功能,包括添加更多工具、處理不同類型的任務(wù)、優(yōu)化交互方式等。

四.Rag原理和應(yīng)用案例

圖片圖片

為什么要用RAG技術(shù)?

RAG(檢索增強(qiáng)生成)主要解決了大語言模型(LLM)的以下幾個問題:

  • 幻覺問題:LLM 因?yàn)槭穷A(yù)訓(xùn)練模型,當(dāng)用戶提出的問題與其知識儲備不相符時,可能會產(chǎn)生看似正確實(shí)則錯誤的回答,即出現(xiàn)“幻覺”。RAG 通過從外部知識庫中檢索相關(guān)信息,為 LLM 提供更準(zhǔn)確的依據(jù),從而減少幻覺的產(chǎn)生。
  • 數(shù)據(jù)新鮮度問題:LLM 預(yù)訓(xùn)練完成后,不能感知實(shí)時更新的數(shù)據(jù)。RAG 可以將實(shí)時更新的公域數(shù)據(jù)或企業(yè)內(nèi)部私域數(shù)據(jù)進(jìn)行處理后,提供給 LLM,使其能夠生成基于最新信息的回答。
  • 知識局限性問題:LLM 可能在某些小眾領(lǐng)域的知識不足。RAG 能通過向量匹配,幫助找到與提問最相關(guān)的段落或文章,補(bǔ)充 LLM 缺乏的知識。
  • 隱私保護(hù)問題:企業(yè)可能出于安全考慮,不想讓 LLM 訓(xùn)練自家的敏感數(shù)據(jù)或機(jī)密文檔。RAG 可以在不暴露敏感數(shù)據(jù)的情況下,從知識庫中檢索相關(guān)信息,為 LLM 提供回答所需的內(nèi)容。

RAG是一種使用來自私有或?qū)S袛?shù)據(jù)源的信息來輔助文本生成的技術(shù)。它將檢索模型(用于搜索大型數(shù)據(jù)集或知識庫)和生成模型(如大型語言模型 LLM)結(jié)合在一起,通過從更多數(shù)據(jù)源添加背景信息,以及通過訓(xùn)練來補(bǔ)充 LLM 的原始知識庫,從而提高搜索體驗(yàn)的相關(guān)性,改善大型語言模型的輸出,且無需重新訓(xùn)練模型。

RAG 的工作原理如下:

  • 檢索:將用戶的查詢通過嵌入模型轉(zhuǎn)化為向量,與向量數(shù)據(jù)庫中的其他上下文信息進(jìn)行比對,通過相似性搜索找到向量數(shù)據(jù)庫中最匹配的前 k 個數(shù)據(jù)。
  • 增強(qiáng):將用戶的查詢和檢索到的額外信息一起嵌入到預(yù)設(shè)的提示模板中,提供更豐富、更具上下文的信息,以便于后續(xù)的生成過程。
  • 生成:將經(jīng)過檢索增強(qiáng)的提示內(nèi)容輸入到大型語言模型(LLM)中,生成所需的輸出。

舉一個RAG 的一個應(yīng)用案例:假設(shè)要構(gòu)建一個智能客服系統(tǒng),能夠回答關(guān)于產(chǎn)品的各種問題。首先,收集產(chǎn)品相關(guān)的文檔、常見問題解答等數(shù)據(jù),并將這些數(shù)據(jù)進(jìn)行處理和向量化后存入向量數(shù)據(jù)庫。當(dāng)用戶提出問題時,系統(tǒng)通過檢索模塊在向量數(shù)據(jù)庫中查找相關(guān)信息,然后將查詢和檢索到的信息一起輸入到提示模板中進(jìn)行增強(qiáng)。最后,利用大型語言模型根據(jù)增強(qiáng)后的提示生成準(zhǔn)確且符合語境的回答。

例如,用戶詢問“某產(chǎn)品的最新功能有哪些”,RAG 系統(tǒng)會從數(shù)據(jù)庫中檢索到該產(chǎn)品的最新信息,將其與問題一起提供給 LLM,使得 LLM 生成的回答包含最新的、準(zhǔn)確的產(chǎn)品功能描述,而不僅僅依賴于其預(yù)先訓(xùn)練的知識。

完整的RAG工作流程分為兩個階段:

圖片圖片

RAG 的優(yōu)點(diǎn)包括提高答案準(zhǔn)確性、減少幻覺、能夠識別最新信息以保持回答的及時性和準(zhǔn)確性、高度透明從而增強(qiáng)用戶對輸出結(jié)果的信任、可定制化以支持不同領(lǐng)域的專業(yè)知識,以及在安全性和隱私管理方面有較好的控制、處理大規(guī)模數(shù)據(jù)集時具有更好的擴(kuò)展性和經(jīng)濟(jì)效率、提供更值得信賴的結(jié)果等。

然而,RAG 系統(tǒng)在實(shí)際應(yīng)用中也面臨一些挑戰(zhàn),例如檢索質(zhì)量方面可能存在精度問題( 檢索結(jié)果不完全相關(guān))、低召回率問題(未能檢索到所有相關(guān)文檔塊)、過時信息問題;回應(yīng)生成質(zhì)量方面可能出現(xiàn)錯誤信息、回答不相關(guān)性、有害或偏見性回應(yīng)等;在增強(qiáng)過程中面臨上下文融合、處理冗余和重復(fù)、評估文段價(jià)值、保持輸出一致性、避免過度依賴增強(qiáng)信息等問題。

為了解決這些挑戰(zhàn),可能需要優(yōu)化檢索算法、提升嵌入模型的性能、精心設(shè)計(jì)提示模板、進(jìn)行數(shù)據(jù)清洗和更新、引入人工審核或反饋機(jī)制等措施。同時,根據(jù)具體的應(yīng)用場景和需求,選擇合適的檢索模型、LLM、向量數(shù)據(jù)庫等組件,并不斷調(diào)整和改進(jìn)系統(tǒng)的參數(shù)和配置,以提高 RAG 系統(tǒng)的性能和效果。

推薦2個相對成熟的Rag方案:

  • GraphRAG:微軟開源的一種基于圖的檢索增強(qiáng)生成方法。它利用大型語言模型構(gòu)建知識圖譜,將圖譜聚類成不同粒度級別的相關(guān)實(shí)體社區(qū)。在進(jìn)行 RAG 操作時,遍歷所有社區(qū)以創(chuàng)建“社區(qū)答案”,并進(jìn)行縮減得到最終答案。該方法在處理私有數(shù)據(jù)時性能較好,具備跨大型數(shù)據(jù)集的復(fù)雜語義問題推理能力。其開源地址為:https://github.com/microsoft/graphrag
  • HyKGE:這是知識圖譜與檢索增強(qiáng)生成技術(shù)結(jié)合的一種方案。通過利用大型語言模型的深度語義理解與知識生成能力,結(jié)合知識圖譜豐富的結(jié)構(gòu)化信息,能夠提高醫(yī)學(xué)信息檢索的效率,并確保回答的精確度。該框架利用大型語言模型生成假設(shè)性回答以增強(qiáng)圖譜檢索,采用 HO 片段重排名機(jī)制過濾噪聲知識,包含假設(shè)輸出模塊、命名實(shí)體識別模塊、知識圖譜檢索模塊和 HO 片段粒度感知重排模塊等組件。

五. AI + 低代碼/零代碼的思考

目前主要能落地的幾個方向主要有:

  • 素材生成(AIGC), 比如圖文,音視頻
  • 頁面生成(基于訓(xùn)練的Schema, 批量生成Schema, 進(jìn)而實(shí)現(xiàn)批量頁面模版生成)
  • 業(yè)務(wù)流程生成
  • 接口 / 數(shù)據(jù)庫表自動創(chuàng)建
  • 應(yīng)用創(chuàng)建

后續(xù)我也會出幾個實(shí)踐案例, 和大家分享一下如何讓AI賦能零代碼.

六. 前端效能

1.下一代工作模式和研發(fā)思維方式

圖片圖片

上面是我總結(jié)的一些和AI共存的思考, 大家可以參考一下.

2.AI輔助工具M(jìn)arscode 和 知識庫創(chuàng)作工具Nocode/WEP

圖片圖片

或者使用我自研的下一代AI文檔知識庫工具Nocode/WEP, 來輕松幫大家搭建AI知識庫:

圖片圖片


責(zé)任編輯:武曉燕 來源: 趣談前端
相關(guān)推薦

2022-04-25 10:56:33

前端優(yōu)化性能

2022-09-08 10:14:29

人臉識別算法

2023-10-31 12:58:00

TypeScriptJavaScript

2021-03-16 08:21:29

Spark系統(tǒng)并行

2023-11-12 17:17:49

2024-09-09 05:00:00

RedisString數(shù)據(jù)庫

2025-06-03 14:19:34

2021-06-07 15:49:51

AI 數(shù)據(jù)人工智能

2021-10-18 11:58:56

負(fù)載均衡虛擬機(jī)

2021-11-11 09:27:02

技術(shù)RedisMySQL

2023-01-06 08:15:58

StreamAPI接口

2024-08-13 15:07:20

2022-09-06 08:02:40

死鎖順序鎖輪詢鎖

2015-08-20 10:34:25

2022-09-28 09:12:16

HBase分布式數(shù)據(jù)庫數(shù)據(jù)庫

2022-07-13 13:51:22

GitHubPR開源

2023-03-30 08:28:57

explain關(guān)鍵字MySQL

2024-08-30 10:29:21

2024-12-31 00:00:01

驅(qū)動設(shè)計(jì)應(yīng)用場景業(yè)務(wù)邏輯
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 涩涩视频网 | 欧美极品在线观看 | 久久久无码精品亚洲日韩按摩 | 亚洲国产精品精华素 | 北条麻妃一区二区三区在线视频 | 中文字幕不卡在线88 | 国产色网站 | 99re视频在线观看 | 久久国产精品偷 | 中文字幕亚洲一区 | 午夜视频免费网站 | 性欧美精品一区二区三区在线播放 | 综合精品在线 | 亚洲永久字幕 | 国产精品久久精品 | 日韩亚洲欧美综合 | 亚洲视频免费在线 | 欧美激情久久久 | 日本中文字幕视频 | 亚洲国产精品久久久 | 黄色一级免费 | 欧美精品一区二区三区蜜桃视频 | 亚洲电影第三页 | 国产精品久久久久久影视 | 欧美激情欧美激情在线五月 | 五月天综合影院 | 成人国产精品免费观看视频 | 91免费在线 | 天天操,夜夜爽 | 999精品在线观看 | 成人精品视频 | 久久久久久成人 | 一区二区在线 | 日韩一区二区在线观看 | 一级视频在线免费观看 | 亚洲人的av | 国产精品一区二区在线免费观看 | 免费黄色录像视频 | 欧美成年网站 | 国产成人精品免高潮在线观看 | 欧美日韩视频在线第一区 |