百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

快来!建立你的第一个Python聊天机器人项目

toyiye 2024-06-21 12:15 17 浏览 0 评论

全文共7900字,预计学习时长23分钟

来源:Pexels


利用Python,我们可以实现很多目标,比如说建立一个你专属的聊天机器人程序。

聊天机器人程序不光满足个人需求,它对商业组织和客户都非常有帮助。大多数人喜欢直接通过聊天室交谈,而不是打电话给服务中心。


Facebook发布的数据证明了机器人的价值。每月有超过20亿条信息在人和公司之间发送。HubSpot的研究显示,71%的人希望从信息应用程序获得客户支持。这是解决问题的快速方法,因此聊天机器人在组织中有着光明的未来。


今天要做的是在Chatbot上建立一个令人兴奋的项目。,从零开始完成一个聊天机器人,它将能够理解用户正在谈论的内容并给出适当的回应。


先决条件


为了实现聊天机器人,将使用一个深度学习库Keras,一个自然语言处理工具包NLTK,以及一些有用的库。运行以下命令以确保安装了所有库:


pip installtensorflow keras pickle nltk


聊天机器人是如何工作的?


聊天机器人只是一个智能软件,可以像人类一样与人互动和交流。很有趣,不是吗?现在来看看它们是如何工作的。


所有聊天机器人都基于自然语言处理(NLP)概念。NLP由两部分组成:


· NLU(自然语言理解):机器理解人类语言(如英语)的能力。


· NLG(自然语言生成):机器生成类似于人类书面句子的文本的能力。


想象一个用户问聊天机器人一个问题:“嘿,今天有什么新闻?”


该聊天机器人就会将用户语句分解为两个部分:意图和实体。这句话的目的可能是获取新闻,因为它指的是用户希望执行的操作。实体告诉了关于意图的具体细节,所以“今天”将是实体。因此,这里使用机器学习模型来识别聊天的意图和实体。


来源:Pexels


项目文件结构


项目完成后,将留下所有这些文件。快速浏览每一个。它将给开发员一个如何实施该项目的想法。


· Train_chatbot.py-在本文件中,构建和训练深度学习模型,该模型可以分类和识别用户向机器人提出的要求。


· Gui_Chatbot.py-这个文件是构建图形用户界面用来与训练后的聊天机器人聊天的地方。


· Intents.json-Intents文件包含将用于训练模型的所有数据。它包含一组标记及其相应的模式和响应。


· Chatbot_model.h5-这是一个分层数据格式文件,其中存储了训练模型的权重和体系结构。


· Classes.pkl-pickle文件可用于存储预测消息时要分类的所有标记名。


· Words.pkl-Words.pklpickle文件包含模型词汇表中的所有唯一单词。


下载源代码和数据集:


mailto:https://drive.google.com/drive/folders/1r6MrrdE8V0bWBxndGfJxJ4Om62dJ2OMP?usp=sharing


如何建立自己的聊天机器人?


笔者将这个聊天机器人的构建简化为5个步骤:


第一步。导入库并加载数据


创建一个新的python文件并将其命名为train_chatbot,然后导入所有必需的模块。之后,从Python程序中读取JSON数据文件。


importnumpy as np
fromkeras.models importSequential
fromkeras.layers importDense, Activation,Dropout
fromkeras.optimizers importSGD
importrandom
importnltk
fromnltk.stem importWordNetLemmatizer
lemmatizer = WordNetLemmatizer()
importjson
importpickle
intents_file = open('intents.json').read()
intents= json.loads(intents_file)

第二步。数据预处理


模型无法获取原始数据。为了使机器容易理解,必须经过许多预处理。对于文本数据,有许多预处理技术可用。第一种技术是标记化,把句子分解成单词。


通过观察intents文件,可以看到每个标记包含模式和响应的列表。标记每个模式并将单词添加到列表中。另外,创建一个类和文档列表来添加与模式相关的所有意图。


words=[]
classes= []
documents= []
ignore_letters = ['!', '?', ',', '.']
forintent in intents['intents']:
forpattern in intent['patterns']:
#tokenize each word
word= nltk.word_tokenize(pattern)
words.extend(word)
#add documents in the corpus
documents.append((word, intent['tag']))
# add to our classes list
ifintent['tag'] notin classes:
classes.append(intent['tag'])
print(documents)

另一种技术是词形还原。我们可以将单词转换成引理形式,这样就可以减少所有的规范单词。例如,单词play、playing、playing、played等都将替换为play。这样,可以减少词汇表中的单词总数。所以将每个单词进行引理,去掉重复的单词。


# lemmaztize and lower each word andremove duplicates
words= [lemmatizer.lemmatize(w.lower()) forw in words if w notinignore_letters]
words= sorted(list(set(words)))
# sort classes
classes= sorted(list(set(classes)))
# documents = combination betweenpatterns and intents
print(len(documents), "documents")
# classes = intents
print(len(classes), "classes", classes)
# words = all words, vocabulary
print(len(words), "unique lemmatized words", words)
pickle.dump(words,open('words.pkl','wb'))
pickle.dump(classes,open('classes.pkl','wb'))

最后,单词包含了项目的词汇表,类包含了要分类的所有实体。为了将python对象保存在文件中,使用pickle.dump()方法。这些文件将有助于训练完成后进行预测聊天。


来源:Pexels


第三步。创建训练集和测试集


为了训练模型,把每个输入模式转换成数字。首先,对模式中的每个单词进行引理,并创建一个长度与单词总数相同的零列表。只将值1设置为那些在模式中包含单词的索引。同样,将1设置为模式所属的类输入,来创建输出。


# create the training data
training= []
# create empty array for the output
output_empty = [0] * len(classes)
# training set, bag of words for everysentence
fordoc in documents:
# initializing bag of words
bag= []
# list of tokenized words for thepattern
word_patterns = doc[0]
# lemmatize each word - create baseword, in attempt to represent related words
word_patterns = [lemmatizer.lemmatize(word.lower()) for word in word_patterns]
# create the bag of words array with1, if word is found in current pattern
forword in words:
bag.append(1) if word inword_patterns else bag.append(0)
# output is a '0' for each tag and '1'for current tag (for each pattern)
output_row = list(output_empty)
output_row[classes.index(doc[1])] = 1
training.append([bag, output_row])
# shuffle the features and make numpyarray
random.shuffle(training)
training= np.array(training)
# create training and testing lists. X- patterns, Y - intents
train_x= list(training[:,0])
train_y= list(training[:,1])
print("Training data is created")

第四步。训练模型


该模型将是一个由3个密集层组成的神经网络。第一层有128个神经元,第二层有64个,最后一层的神经元数量与类数相同。为了减少模型的过度拟合,引入了dropout层。使用SGD优化器并对数据进行拟合,开始模型的训练。在200个阶段的训练完成后,使用Kerasmodel.save(“chatbot_model.h5”)函数保存训练的模型。


# deep neural networds model
model= Sequential()
model.add(Dense(128,input_shape=(len(train_x[0]),), activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(64,activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(len(train_y[0]), activation='softmax'))
# Compiling model. SGD with Nesterovaccelerated gradient gives good results for this model
sgd= SGD(lr=0.01,decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd, metrics=['accuracy'])
#Training and saving the model
hist= model.fit(np.array(train_x), np.array(train_y), epochs=200, batch_size=5,verbose=1)
model.save('chatbot_model.h5', hist)
print("model is created")

第五步。与聊天机器人互动


模型已经准备好聊天了,现在在一个新文件中为聊天机器人创建一个很好的图形用户界面。可以将文件命名为gui_chatbot.py


在GUI文件中,使用Tkinter模块构建桌面应用程序的结构,然后捕获用户消息,并在将消息输入到训练模型之前,再次执行一些预处理。


然后,模型将预测用户消息的标签,从intents文件的响应列表中随机选择响应。


这是GUI文件的完整源代码。


importnltk
fromnltk.stem importWordNetLemmatizer
lemmatizer = WordNetLemmatizer()
importpickle
importnumpy as np
fromkeras.models importload_model
model= load_model('chatbot_model.h5')
importjson
importrandom
intents= json.loads(open('intents.json').read())
words= pickle.load(open('words.pkl','rb'))
classes= pickle.load(open('classes.pkl','rb'))
defclean_up_sentence(sentence):
# tokenize the pattern - splittingwords into array
sentence_words = nltk.word_tokenize(sentence)
# stemming every word - reducing tobase form
sentence_words = [lemmatizer.lemmatize(word.lower()) for word in sentence_words]
returnsentence_words
# return bag of words array: 0 or 1for words that exist in sentence
defbag_of_words(sentence, words,show_details=True):
# tokenizing patterns
sentence_words = clean_up_sentence(sentence)
# bag of words - vocabulary matrix
bag= [0]*len(words)
fors in sentence_words:
fori,word inenumerate(words):
ifword == s:
# assign 1 if current word is in thevocabulary position
bag[i] = 1
ifshow_details:
print("found in bag:%s" % word)
return(np.array(bag))
defpredict_class(sentence):
# filter below thresholdpredictions
p= bag_of_words(sentence,words,show_details=False)
res= model.predict(np.array([p]))[0]
ERROR_THRESHOLD = 0.25
results= [[i,r] fori,r inenumerate(res) ifr>ERROR_THRESHOLD]
# sorting strength probability
results.sort(key=lambdax: x[1],reverse=True)
return_list = []
forr in results:
return_list.append({"intent": classes[r[0]],"probability": str(r[1])})
returnreturn_list
defgetResponse(ints, intents_json):
tag= ints[0]['intent']
list_of_intents = intents_json['intents']
fori in list_of_intents:
if(i['tag']== tag):
result= random.choice(i['responses'])
break
returnresult
#Creating tkinter GUI
importtkinter
fromtkinter import *
defsend():
msg= EntryBox.get("1.0",'end-1c').strip()
EntryBox.delete("0.0",END)
ifmsg != '':
ChatBox.config(state=NORMAL)
ChatBox.insert(END, "You: " + msg+ '\n\n')
ChatBox.config(foreground="#446665", font=("Verdana", 12 ))
ints= predict_class(msg)
res= getResponse(ints,intents)
ChatBox.insert(END, "Bot: " + res+ '\n\n')
ChatBox.config(state=DISABLED)
ChatBox.yview(END)
root= Tk()
root.title("Chatbot")
root.geometry("400x500"
root.resizable(width=FALSE, height=FALSE)
#Create Chat window
ChatBox= Text(root, bd=0, bg="white",height="8", width="50", font="Arial",)
ChatBox.config(state=DISABLED)
#Bind scrollbar to Chat window
scrollbar= Scrollbar(root,command=ChatBox.yview, cursor="heart")
ChatBox['yscrollcommand'] = scrollbar.set
#Create Button to send message
SendButton = Button(root,font=("Verdana",12,'bold'),text="Send", width="12", height=5,
bd=0,bg="#f9a602",activebackground="#3c9d9b",fg='#000000',
command=send )
#Create the box to enter message
EntryBox= Text(root, bd=0, bg="white",width="29", height="5", font="Arial")
#EntryBox.bind("<Return>",send)
#Place all components on the screen
scrollbar.place(x=376,y=6, height=386)
ChatBox.place(x=6,y=6, height=386,width=370)
EntryBox.place(x=128,y=401, height=90,width=265)
SendButton.place(x=6,y=401, height=90)
root.mainloop()

运行聊天机器人


来源:Pexels

现在有两个独立的文件,一个是train_chatbot.py,首先使用它来训练模型。


pythontrain_chatbot.py


快来试试吧~

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码