数据可视化是任何数据科学或机器学习项目的重要组成部分。您通常会从探索性数据分析(EDA)开始,以获得对数据的一些见解,创建可视化确实有助于使事情更清晰,更容易理解,尤其是对于更大,更高维度的数据集。在项目即将结束时,能够以清晰,简洁和引人注目的方式呈现您的最终结果非常重要,以便您的受众(通常是非技术客户)能够理解。
通常我们想到的数据可视化图有散点图,线图,直方图,条形图和箱形图。这些都是简单而强大的可视化,您可以使用它们从数据集中提取出色的见解。在这篇文章中,我们将看到另外4 个数据可视化!这些将更精细,并且可以在您完成上一篇文章中的基本内容之后使用,以从您的数据中提取更深入的信息。
热图
热图是数据的矩阵表示,其中每个矩阵值表示为颜色。不同的颜色代表不同的大小,矩阵索引将被比较的2个项目或特征链接在一起。热图非常适合显示多个特征变量之间的关系,因为您可以直接将大小视为颜色。您还可以通过查看热图中的其他点来查看每种关系如何与数据集中的其他关系进行比较。由于它非常直观,因此颜色实际上提供了简单的解释。
以下为代码。该seaborn库可用于比matplotlib更高级的图,通常需要更多组件,如许多颜色,图形或变量。matplotlib用于显示图表,numpy生成数据和pandas处理数据!绘图只是一个简单的seaborn功能,如果你发现特别令人愉悦的东西,我们也可以设置颜色映射。
# Importing libs import seaborn as sns import pandas as pd import numpy as np import matplotlib.pyplot as plt # Create a random dataset data = pd.DataFrame(np.random.random((10,6)), columns=["Iron Man","Captain America","Black Widow","Thor","Hulk", "Hawkeye"]) print(data) # Plot the heatmap heatmap_plot = sns.heatmap(data, center=0, cmap='gist_ncar') plt.show()
二维密度图
2D密度图是1D版本的简单扩展,其另外的好处是能够看到关于2个变量的概率分布。我们来看看下面的二维密度图。右侧的图例使用颜色来表示每个点的概率。概率最高,因此我们数据的集中度似乎大约为0.5,速度为1.4-ish。正如您现在所知,2D密度图非常适合快速识别我们的数据最集中的两个变量,而不仅仅是一维密度图中的一个。当你有两个变量是你的输出非常重要,并希望看到他们俩如何促进这是特别强大起来的输出分配。
seaborn的代码再次超级简单!这一次,我们将创建一个偏斜的分布,使事情变得有趣。如果您发现某些颜色和/或阴影在视觉上更令人愉悦,那么大多数可选参数都会使事物看起来更清晰。
# Importing libs import seaborn as sns import matplotlib.pyplot as plt from scipy.stats import skewnorm # Create the data speed = skewnorm.rvs(4, size=50) size = skewnorm.rvs(4, size=50) # Create and shor the 2D Density plot ax = sns.kdeplot(speed, size, cmap="Reds", shade=False, bw=.15, cbar=True) ax.set(xlabel='speed', ylabel='size') plt.show()
蜘蛛图
蜘蛛图是展示一对多关系的最佳方式之一。也就是说,您可以绘制并查看与单个变量或类别相关的多个变量的值。由于面积和长度在该特定方向上变大,因此一个变量在另一个变量上的突出性在蜘蛛图中是清楚且明显的。如果您想了解几个类别如何与这些变量相关联,您可以并排绘制它们。在下图中,很容易比较复仇者的不同属性,看看他们的优势在哪里!(请注意,这些统计数据是随机设置的,我并没有偏向任何一个复仇者;))
这次我们将能够直接使用matplotlib创建我们的可视化而不是seaborn。我们需要计算每个属性所在的角度,因为我们希望它们沿着圆周长度相等。我们将标签放置在每个计算出的角度,然后将该值绘制为单个点,其距中心的距离取决于其值/幅度。最后,为了清晰起见,我们将使用半透明颜色填充连接属性点的线所包含的区域。
# Import libs import pandas as pd import seaborn as sns import numpy as np import matplotlib.pyplot as plt # Get the data df=pd.read_csv("avengers_data.csv") print(df) """ # Name Attack Defense Speed Range Health 0 1 Iron Man 83 80 75 70 70 1 2 Captain America 60 62 63 80 80 2 3 Thor 80 82 83 100 100 3 3 Hulk 80 100 67 44 92 4 4 Black Widow 52 43 60 50 65 5 5 Hawkeye 58 64 58 80 65 """ # Get the data for Iron Man labels=np.array(["Attack","Defense","Speed","Range","Health"]) stats=df.loc[0,labels].values # Make some calculations for the plot angles=np.linspace(0, 2*np.pi, len(labels), endpoint=False) stats=np.concatenate((stats,[stats[0]])) angles=np.concatenate((angles,[angles[0]])) # Plot stuff fig = plt.figure() ax = fig.add_subplot(111, polar=True) ax.plot(angles, stats, 'o-', linewidth=2) ax.fill(angles, stats, alpha=0.25) ax.set_thetagrids(angles * 180/np.pi, labels) ax.set_title([df.loc[0,"Name"]]) ax.grid(True) plt.show()
树形图
从小学开始我们就一直在使用树形图!它们自然而直观,易于理解。具有直接连接的节点具有紧密关系,而分开许多连接的节点不是非常相似。在下面的可视化中,我根据他们的统计数据绘制了一小部分口袋妖怪,其中包含来自Kaggle的统计数据集:
HP,攻击,防御,特殊攻击,特殊防御,速度
因此,明智地匹配统计数据的口袋妖怪将紧密地连接在一起。例如,我们看到在顶部,Arbok和Fearow是直接连接的,如果我们检查数据,Arbok总共有438,而Fearow有442,非常接近!但是一旦我们搬到Raticate,我们得到的总价值为413,这与Arbok和Fearow完全不同,因此他们为什么会分开!随着我们向上移动树,口袋妖怪越来越多地基于相似性进行分组。即使没有直接的绿色连接,绿色组中的神奇宝贝也会比红色组中的任何东西更相似。
对对于树形图,我们实际上将使用Scipy!在我们的数据集中读取后,我们将删除字符串列。我们这里只是为了实现可视化,但在实践中将这些字符串转换为分类变量以获得更好的比较和结果会很棒。我们还设置了数据帧索引,以便我们可以正确地将其用作引用每个节点的列。最后,在Scipy中计算和绘制树是一个简单的单行程!
# Import libs import pandas as pd from matplotlib import pyplot as plt from scipy.cluster import hierarchy import numpy as np # Read in the dataset # Drop any fields that are strings # Only get the first 40 because this dataset is big df = pd.read_csv('Pokemon.csv') df = df.set_index('Name') del df.index.name df = df.drop(["Type 1", "Type 2", "Legendary"], axis=1) df = df.head(n=40) # Calculate the distance between each sample Z = hierarchy.linkage(df, 'ward') # Orientation our tree hierarchy.dendrogram(Z, orientation="left", labels=df.index) plt.show()