成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

采用代碼聊天:理解代碼庫的對話式人工智能

譯文 精選
人工智能
想象一下,有一個工具可以理解你的代碼,可以回答你的問題,提供見解,甚至幫助你調(diào)試問題——所有這些都是通過自然語言查詢實現(xiàn)的。本文將引導(dǎo)你完成創(chuàng)建對話式人工智能的過程,該過程允許使用Chainlit、Qdrant和OpenAI與你的代碼進(jìn)行對話。

譯者 | 李睿

審校 | 重樓

在不斷發(fā)展的軟件開發(fā)環(huán)境中,與代碼庫進(jìn)行對話式交互可以改變游戲規(guī)則。

想象一下,有一個工具可以理解你的代碼,可以回答你的問題,提供見解,甚至幫助你調(diào)試問題——所有這些都是通過自然語言查詢實現(xiàn)的。本文將引導(dǎo)你完成創(chuàng)建對話式人工智能的過程,該過程允許使用Chainlit、Qdrant和OpenAI與你的代碼進(jìn)行對話。

對話式人工智能對代碼庫的好處

  • 簡化代碼審查:快速審查特定的代碼模塊并了解其場景,而無需花費(fèi)更多的時間挖掘文件。
  • 高效調(diào)試:詢問代碼中潛在的問題,并獲得有針對性的響應(yīng),這有助于減少故障排除所花費(fèi)的時間。
  • 增強(qiáng)學(xué)習(xí): 新的團(tuán)隊成員可以了解代碼中不同組件的工作原理,而無需向現(xiàn)有的代碼專家學(xué)習(xí)。
  • 改進(jìn)文檔:使用人工智能進(jìn)行總結(jié)有助于生成復(fù)雜代碼的解釋,從而更容易增強(qiáng)文檔。

以下介紹是如何做到這一點(diǎn)的。

為交互準(zhǔn)備代碼庫

第一步是確保代碼庫已經(jīng)準(zhǔn)備好進(jìn)行交互。這可以通過將代碼向量化并將其存儲在向量數(shù)據(jù)庫中來實現(xiàn),從而有效地對其進(jìn)行審查。

Python

1 import openai
2 import yaml
3 import os
4 import uuid
5 from qdrant_client import QdrantClient, models
6
7 # Load configuration from config.yaml
8 with open("config.yaml", "r") as file:
9 config = yaml.safe_load(file)
10
11 # Extract API keys and URLs from the config
12 qdrant_cloud_url = config["qdrant"]["url"]
13 qdrant_api_key = config["qdrant"]["api_key"]
14 openai_api_key = config["openai"]["api_key"]
15 code_folder_path = config["folder"]["path"]
16
17 # Initialize OpenAI API
18
openai.api_key = openai_api_key
19
20 # Initialize Qdrant client
21 client = QdrantClient(
22 url=qdrant_cloud_url,
23 api_key=qdrant_api_key,
24 )
25
26 def chunk_code(code, chunk_size=512):
27 """
28 Splits the code into chunks, each of a specified size.
29 This helps in generating embeddings for manageable pieces of code.
30 """
31 lines = code.split('\n')
32 for i in range(0, len(lines), chunk_size):
33 yield '\n'.join(lines[i:i + chunk_size])
34
35 def vectorize_and_store_code(code, filename):
36 try:
37 # Chunk the code for better embedding representation
38 code_chunks = list(chunk_code(code))
39
40 # Generate embeddings for each chunk using the OpenAI API
41 embeddings = []
42 for chunk in code_chunks:
43 response = openai.embeddings.create(
44 input=[chunk], # Input should be a list of strings
45 model="text-embedding-ada-002"
46 )
47
48 # Access the embedding data correctly
49 embedding = response.data[0].embedding
50 embeddings.append(embedding)
51
52 # Flatten embeddings if needed or store each chunk as a separate entry
53 if len(embeddings) == 1:
54 final_embeddings = embeddings[0]
55 else:
56 final_embeddings = [item for sublist in embeddings for item in 
sublist]
57
58 # Ensure the collection exists
59 try:
60 client.create_collection(
61 collection_name="talk_to_your_code",
62 vectors_config=models.VectorParams(size=len(final_embeddings), 
distance=models.Distance.COSINE)
63 )
64 except Exception as e:
65 print("Collection already exists or other error:", e)
66
67 # Insert each chunk into the collection with relevant metadata
68 for i, embedding in enumerate(embeddings):
69 point_id = str(uuid.uuid4())
70 points = [
71 models.PointStruct(
72 id=point_id,
73 vector=embedding,
74 payload={
75 "filename": filename,
76 "chunk_index": i,
77 "total_chunks": len(embeddings),
78 "code_snippet": code_chunks[i]
79 }
80 )
81 ]
82 client.upsert(collection_name="talk_to_your_code", points=points)
83
84 return f"{filename}: Code vectorized and stored successfully."
85
86 except Exception as e:
87 return f"An error occurred with {filename}: {str(e)}"
88
89 def process_files_in_folder(folder_path):
90 for filename in os.listdir(folder_path):
91 if filename.endswith(".py"):
92 file_path = os.path.join(folder_path, filename)
93 with open(file_path, 'r', encoding='utf-8') as file:
94 code = file.read()
95 print(vectorize_and_store_code(code, filename))
96
97 if __name__ == "__main__":
98 process_files_in_folder(code_folder_path)
99

現(xiàn)在了解上述代碼值得注意的方面。

  • 加載代碼文件并將其分塊為可管理的部分。
  • 分塊是一個非常重要的環(huán)節(jié)。塊的大小不應(yīng)過小,以至于你想要了解的函數(shù)或模塊可以在多個塊中使用;也不應(yīng)該太大,以至于多個函數(shù)或模塊被壓縮到一個塊中;這兩種情況都會降低檢索質(zhì)量。
  • 使用OpenAI的text- embeddings -ada-002模型為每個塊生成嵌入。
  • 在Qdrant中處理和存儲嵌入以增強(qiáng)檢索。
  • 向代碼塊中添加元數(shù)據(jù)將有助于檢索特定的組件,并使代碼對話功能更加強(qiáng)大。
  • 為簡單起見,使用了一個文件夾路徑,其中放置了用于構(gòu)建這個對話模塊的兩個代碼文件。這個設(shè)置可以進(jìn)一步擴(kuò)展,以便指向GitHub上的URL。
  • 使用2個Python文件,即ragwithknowledgegraph.py和ragwithoutknowledgegraph.py用于生成代碼塊的嵌入向量,并將其存儲在矢量數(shù)據(jù)庫中,可以通過聊天界面對其進(jìn)行提問。

構(gòu)建對話界面

現(xiàn)在將設(shè)置一個Chainlit界面,該界面接受用戶輸入,查詢Qdrant,并返回關(guān)于代碼的場景相關(guān)信息。

Python

1 import chainlit as cl
2 import qdrant_client
3 import openai
4 import yaml
5 from langchain_openai import ChatOpenAI, OpenAIEmbeddings
6 from langchain.prompts import PromptTemplate
7
8 # Load configuration from config.yaml
9 with open("config.yaml", "r") as file:
10 config = yaml.safe_load(file)
11
12 # Extract API keys and URLs from the config
13 qdrant_cloud_url = config["qdrant"]["url"]
14 qdrant_api_key = config["qdrant"]["api_key"]
15 openai_api_key = config["openai"]["api_key"]
16
17 # Initialize OpenAI API
18 openai.api_key = openai_api_key
19
20 # Initialize OpenAI Embeddings
21 embeddings = OpenAIEmbeddings(model="text-embedding-ada-002", 
openai_api_key=openai_api_key)
22
23 # Initialize Qdrant client
24 client = qdrant_client.QdrantClient(
25 url=qdrant_cloud_url,
26 api_key=qdrant_api_key,
27 )
28
29 # Initialize OpenAI Chat model
30 chat_model = ChatOpenAI(openai_api_key=openai_api_key, model="gpt-4")
31
32 # Define a simple QA prompt template
33 qa_prompt_template = PromptTemplate(
34 input_variables=["context", "question"],
35 template="Given the following context:\n{context}\nAnswer the following 
question:\n{question}"
36 )
37
38 # Chainlit function to handle user input
39 @cl.on_message
40 async def handle_message(message: cl.message.Message):
41 try:
42 # Extract the actual text content from the message object
43 user_input = message.content
44
45 # Generate the query vector using OpenAI Embeddings
46 query_vector = embeddings.embed_query(user_input)
47
48 # Manually send the query to Qdrant
49 response = client.search(
50 collection_name="talk_to_your_code",
51 query_vector=query_vector,
52 limit=5
53 )
54
55 # Process and retrieve the relevant context (code snippets) from the 
Qdrant response
56 context_list = []
57 for point in response:
58 code_snippet = point.payload.get('code_snippet', '')
59 filename = point.payload.get('filename', 'Unknown')
60 context_list.append(f"Filename: {filename}\nCode 
Snippet:\n{code_snippet}\n")
61
62 context = "\n".join(context_list)
63 if not context:
64 context = "No matching documents found."
65
66 # Generate a response using the LLM with the retrieved context
67 prompt = qa_prompt_template.format(context=context, 
question=user_input)
68 response_text = chat_model.predict(prompt)
69
70 # Send the LLM's response
71 await cl.Message(content=response_text).send()
72
73 except Exception as e:
74 # Log the error
75 print(f"Error during message handling: {e}")
76 await cl.Message(content=f"An error occurred: {str(e)}").send()
77
78 if __name__ == "__main__":
79 cl.run()
80

上述代碼的重要方面包括:

  • 初始化Chainlit并配置其與OpenAI和Qdrant交互。
  • 為輸入生成查詢向量,以幫助從Qdrant檢索相關(guān)代碼片段。
  • 定義一個提示模板,將從Qdrant檢索到的場景與用戶的問題結(jié)合起來。
  • 將場景和問題提供給OpenAI的語言模型,并將生成的答案返回給用戶。
  • 需要注意的是,為了更好地理解,簡化了一些實現(xiàn)。

聊天界面的輸出

以下了解當(dāng)要求總結(jié)其中一個代碼文件時聊天界面生成的輸出。如上所述,將2個Python文件加載到vector db,并要求概述其中一個腳本。

這兩個腳本中,一個使用了知識圖譜來實現(xiàn)一個簡單的RAG(檢索增強(qiáng)生成)用例,而另一個則沒有使用。大型語言模型(LLM)以自然語言的方式很好地完成了對腳本的概述。

下一步驟

  • 通過整合額外的元數(shù)據(jù)來識別代碼的各個方面,從而改進(jìn)檢索。
  • 將聊天界面集成到GitHub URL中,并導(dǎo)入可用于提問的代碼庫。
  • 通過詢問具體和廣泛的問題來測試應(yīng)用程序,以了解應(yīng)用程序?qū)鼍暗睦斫獬潭取?/li>
  • 工程師使用各種不同的提示進(jìn)行提示和測試檢索。

結(jié)論

創(chuàng)建一個能夠理解你的代碼庫的對話式人工智能,將在開發(fā)過程中解鎖一個新的效率和洞察力水平。無論是在簡化代碼審查、加速調(diào)試,還是增強(qiáng)團(tuán)隊協(xié)作,這種方法都提供了巨大的價值。通過這種簡單的方法,可以改變與代碼交互的方式。

原文標(biāo)題:Chat With Your Code: Conversational AI That Understands Your Codebase,作者:Prince Bose,Tharakarama Reddy Yernapalli Sreenivasulu,Pavan Vemuri

鏈接:https://dzone.com/articles/conversational-ai-that-understands-your-codebase。

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2024-04-18 16:12:10

2021-10-08 10:57:19

對話式人工智能關(guān)鍵服務(wù)人工智能

2023-06-30 10:42:00

2023-05-05 14:59:44

2023-12-05 14:31:17

人工智能

2016-09-24 22:49:31

2023-05-05 14:02:59

人工智能聊天機(jī)器人

2022-02-25 15:59:20

人工智能

2025-06-27 03:00:00

2022-11-11 10:07:38

人工智能開源

2021-03-08 08:00:00

人工智能機(jī)器人醫(yī)療

2023-08-25 10:52:04

2022-05-23 15:56:40

人工智能機(jī)器人自然語言

2020-02-10 20:16:04

程序員AI人工智能

2023-05-26 13:57:06

人工智能AI

2019-09-12 15:03:44

2024-01-05 07:44:22

人工智能用戶隱私AI

2021-08-24 10:16:51

人工智能機(jī)器人工具

2023-03-28 15:06:47

人工智能聊天機(jī)器人

2022-01-13 06:59:40

人工智能無代碼IT
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 羞羞视频网站免费看 | 欧美成人免费 | 午夜免费网 | 91精品国产一区二区三区 | 国产成人精品一区二区三区网站观看 | 欧美一级在线观看 | 日韩精品免费视频 | 99精品视频在线观看免费播放 | 日本黄色一级片视频 | 精品久久久网站 | 国产美女一区二区 | 日本午夜视频 | 成人精品久久 | 极品粉嫩国产48尤物在线播放 | 亚洲精品日韩视频 | 欧美日韩免费一区二区三区 | 久久久久久美女 | 精品久久久久久久 | 在线中文字幕日韩 | 久久精品欧美一区二区三区麻豆 | 青青久在线视频 | 美女张开腿露出尿口 | 精品国产乱码 | 四虎最新 | 国产黄色在线观看 | 日本小电影在线 | 欧美一区二区三区在线看 | 亚洲成人精选 | 国产99精品 | 婷婷国产一区二区三区 | 亚洲高清中文字幕 | 久久99国产精品 | 一级a性色生活片久久毛片 一级特黄a大片 | 午夜精品久久久久久久久久久久 | 免费观看一级特黄欧美大片 | 国产欧美日韩精品一区二区三区 | 亚洲精品电影 | 欧美成人精品一区二区三区 | 一级毛片观看 | 91久久久久久久久 | 成人亚洲|