百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

Spark MLlib 机器学习数据转换与处理

toyiye 2024-09-12 20:59 5 浏览 0 评论

一.数据处理

  org.apache.spark.mllib.util.MLUtils用于加载、保存、处理MLlib相关算法所需要的数据。其中最常用的是loadLibSVMFile,该函数用于加载LIBSVM格式的数据,返回RDD[LabeledPoint]格式的数据,用于分类、回归等算法中。

1.loadLibSVMFile

  loadLibSVMFile用于加载指定LIBSVM格式文件的函数,源码如下:

@Since("1.0.0")
def loadLibSVMFile(
    sc: SparkContext,
    path: String,
    numFeatures: Int,
    minPartitions: Int): RDD[LabeledPoint] = {
  val parsed = parseLibSVMFile(sc, path, minPartitions)

  // Determine number of features.
  val d = if (numFeatures > 0) {
    numFeatures
  } else {
    parsed.persist(StorageLevel.MEMORY_ONLY)
    computeNumFeatures(parsed)
  }

  parsed.map { case (label, indices, values) =>
    LabeledPoint(label, Vectors.sparse(d, indices, values))
  }
}

  其中最主要的功能之一就是根据文件路径加载数据,转化为RDD:

private[spark] def parseLibSVMFile(
    sc: SparkContext,
    path: String,
    minPartitions: Int): RDD[(Double, Array[Int], Array[Double])] = {
  sc.textFile(path, minPartitions)
    .map(_.trim)
    .filter(line => !(line.isEmpty || line.startsWith("#")))
    .map(parseLibSVMRecord)
}

  最后使用map算子转化为LabeledPoint类型的RDD:

parsed.map { case (label, indices, values) =>

LabeledPoint(label, Vectors.sparse(d, indices, values))

}

2.saveAsLibSVMFile

  saveAsLibSVMFile是将LIBSVM格式的数据保存到指定的文件中,源码如下:

3.appendBias

  appendBias是对向量增加偏置项,用于分类和回归算法中。源码如下:

@Since("1.0.0")
def appendBias(vector: Vector): Vector = {
  vector match {
    case dv: DenseVector =>
      val inputValues = dv.values
      val inputLength = inputValues.length
      val outputValues = Array.ofDim[Double](inputLength + 1)
      System.arraycopy(inputValues, 0, outputValues, 0, inputLength)
      outputValues(inputLength) = 1.0
      Vectors.dense(outputValues)
    case sv: SparseVector =>
      val inputValues = sv.values
      val inputIndices = sv.indices
      val inputValuesLength = inputValues.length
      val dim = sv.size
      val outputValues = Array.ofDim[Double](inputValuesLength + 1)
      val outputIndices = Array.ofDim[Int](inputValuesLength + 1)
      System.arraycopy(inputValues, 0, outputValues, 0, inputValuesLength)
      System.arraycopy(inputIndices, 0, outputIndices, 0, inputValuesLength)
      outputValues(inputValuesLength) = 1.0
      outputIndices(inputValuesLength) = dim
      Vectors.sparse(dim + 1, outputIndices, outputValues)
    case _ => throw new IllegalArgumentException(s"Do not support vector type ${vector.getClass}")
  }
}

  主要是匹配稀疏向量和稠密向量,否则抛出类型异常!

4.fastSquaredDistance

  fastSquaredDistance是一种快速计算向量距离的函数,主要用于KMeans聚类算法中。它会先计算出一个精度。计算规则如下:precision = (2.0 * EPSILON * sumSquaredNorm) / (normDiff * normDiff + EPSILON)。如果在精度满足条件的情况下,可以使用欧氏距离euclideanDIst = sumSquaredNorm - 2.0 * vl.dot(v2),其中

  如果精度不够,则按照正规的欧式距离计算规则计算:

源码如下:

private[mllib] def fastSquaredDistance(
    v1: Vector,
    norm1: Double,
    v2: Vector,
    norm2: Double,
    precision: Double = 1e-6): Double = {
  val n = v1.size
  require(v2.size == n)
  require(norm1 >= 0.0 && norm2 >= 0.0)
  val sumSquaredNorm = norm1 * norm1 + norm2 * norm2
  val normDiff = norm1 - norm2
  var sqDist = 0.0
  val precisionBound1 = 2.0 * EPSILON * sumSquaredNorm / (normDiff * normDiff + EPSILON)
  if (precisionBound1 < precision) {
    sqDist = sumSquaredNorm - 2.0 * dot(v1, v2)
  } else if (v1.isInstanceOf[SparseVector] || v2.isInstanceOf[SparseVector]) {
    val dotValue = dot(v1, v2)
    sqDist = math.max(sumSquaredNorm - 2.0 * dotValue, 0.0)
    val precisionBound2 = EPSILON * (sumSquaredNorm + 2.0 * math.abs(dotValue)) /
      (sqDist + EPSILON)
    if (precisionBound2 > precision) {
      sqDist = Vectors.sqdist(v1, v2)
    }
  } else {
    sqDist = Vectors.sqdist(v1, v2)
  }
  sqDist
}

二.生成样本数据

1.generateKMeansRDD

  generateKMeansRDD用于生成KMeans的训练样本数据,格式为RDD[Array[Double]],其参数如下:

    • sc : SparkContext
    • numPoints :RDD中包含的数据量
    • k :聚类个数
    • d :数据维度
    • r :初始中心点分布的缩放因子
    • numPartitions :RDD的分区数

  源码如下:

@Since("0.8.0")
def generateKMeansRDD(
    sc: SparkContext,
    numPoints: Int,
    k: Int,
    d: Int,
    r: Double,
    numPartitions: Int = 2)
  : RDD[Array[Double]] =
{
  // First, generate some centers
  val rand = new Random(42)
  val centers = Array.fill(k)(Array.fill(d)(rand.nextGaussian() * r))
  // Then generate points around each center
  sc.parallelize(0 until numPoints, numPartitions).map { idx =>
    val center = centers(idx % k)
    val rand2 = new Random(42 + idx)
    Array.tabulate(d)(i => center(i) + rand2.nextGaussian())
  }
}

2.generateLinearRDD

  generateLinearRDD函数用于生成线性回归算法的训练样本数据,格式为RDD[LabeledPoint],参数如下:

    • sc :SparkContext
    • nexamples :RDD中的数据量
    • nfeatures :样本的特征数
    • eps :Epsioon因子
    • nparts :RDD分区数

  源码如下:

@Since("0.8.0")
def generateLinearRDD(
    sc: SparkContext,
    nexamples: Int,
    nfeatures: Int,
    eps: Double,
    nparts: Int = 2,
    intercept: Double = 0.0): RDD[LabeledPoint] = {
  val random = new Random(42)
  // Random values distributed uniformly in [-0.5, 0.5]
  val w = Array.fill(nfeatures)(random.nextDouble() - 0.5)

  val data: RDD[LabeledPoint] = sc.parallelize(0 until nparts, nparts).flatMap { p =>
    val seed = 42 + p
    val examplesInPartition = nexamples / nparts
    generateLinearInput(intercept, w.toArray, examplesInPartition, seed, eps)
  }
  data
}

3.generateLogisticRDD

  generateLogisticRDD函数用于生成逻辑回归算法的训练样本数据,格式为RDD[LabeledPoint],参数如下:

    • sc :SparkContext
    • nexamples :RDD中的数据量
    • nfeatures :样本的特征数
    • eps :Epsioon因子
    • nparts :RDD分区数
    • probOne :标签1的概率

  源码如下:

@Since("0.8.0")
def generateLogisticRDD(
  sc: SparkContext,
  nexamples: Int,
  nfeatures: Int,
  eps: Double,
  nparts: Int = 2,
  probOne: Double = 0.5): RDD[LabeledPoint] = {
  val data = sc.parallelize(0 until nexamples, nparts).map { idx =>
    val rnd = new Random(42 + idx)

    val y = if (idx % 2 == 0) 0.0 else 1.0
    val x = Array.fill[Double](nfeatures) {
      rnd.nextGaussian() + (y * eps)
    }
    LabeledPoint(y, Vectors.dense(x))
  }
  data
}

4.其它数据生成

  SVM样本生成方法:

SVMGenerator <master> <output_dir> [num_examples][num_features][num_partitions]

  参数如下:

    • master :集群Master地址
    • output_dir :样本输出路径
    • num_examples :样本数量
    • num_features :样本特征数量
    • num_partitions :样本RDD分区数

  源码如下:

@DeveloperApi
@Since("0.8.0")
object SVMDataGenerator {

  @Since("0.8.0")
  def main(args: Array[String]) {
    val sparkMaster: String = args(0)
    val outputPath: String = args(1)
    val nexamples: Int = if (args.length > 2) args(2).toInt else 1000
    val nfeatures: Int = if (args.length > 3) args(3).toInt else 2
    val parts: Int = if (args.length > 4) args(4).toInt else 2

    val sc = new SparkContext(sparkMaster, "SVMGenerator")

    val globalRnd = new Random(94720)
    val trueWeights = Array.fill[Double](nfeatures)(globalRnd.nextGaussian())

    val data: RDD[LabeledPoint] = sc.parallelize(0 until nexamples, parts).map { idx =>
      val rnd = new Random(42 + idx)

      val x = Array.fill[Double](nfeatures) {
        rnd.nextDouble() * 2.0 - 1.0
      }
      val yD = blas.ddot(trueWeights.length, x, 1, trueWeights, 1) + rnd.nextGaussian() * 0.1
      val y = if (yD < 0) 0.0 else 1.0
      LabeledPoint(y, Vectors.dense(x))
    }

    data.saveAsTextFile(outputPath)
    sc.stop()
  }
}

  MFD样本生成方法:

MFDataGenerator <master> <outputDir> [m][n][rank][trainSampFact][noise][sigma][test][testSampFact]

  参数如下:

    • master :集群Master地址
    • outputDir :样本输出路径
    • m :矩阵行数
    • n :矩阵列数
    • rank :矩阵秩
    • trainSampFact :采样因子
    • noise :是否增加噪音
    • sigma :高斯噪音标准差
    • test :是否测试
    • testSampFact :测试比例

  源码如下:

@DeveloperApi
@Since("0.8.0")
object MFDataGenerator {
  @Since("0.8.0")
  def main(args: Array[String]) {
    val sparkMaster: String = args(0)
    val outputPath: String = args(1)
    val m: Int = if (args.length > 2) args(2).toInt else 100
    val n: Int = if (args.length > 3) args(3).toInt else 100
    val rank: Int = if (args.length > 4) args(4).toInt else 10
    val trainSampFact: Double = if (args.length > 5) args(5).toDouble else 1.0
    val noise: Boolean = if (args.length > 6) args(6).toBoolean else false
    val sigma: Double = if (args.length > 7) args(7).toDouble else 0.1
    val test: Boolean = if (args.length > 8) args(8).toBoolean else false
    val testSampFact: Double = if (args.length > 9) args(9).toDouble else 0.1

    val sc = new SparkContext(sparkMaster, "MFDataGenerator")

    val random = new ju.Random(42L)

    val A = DenseMatrix.randn(m, rank, random)
    val B = DenseMatrix.randn(rank, n, random)
    val z = 1 / math.sqrt(rank)
    val fullData = DenseMatrix.zeros(m, n)
    BLAS.gemm(z, A, B, 1.0, fullData)

    val df = rank * (m + n - rank)
    val sampSize = math.min(math.round(trainSampFact * df), math.round(.99 * m * n)).toInt
    val rand = new Random()
    val mn = m * n
    val shuffled = rand.shuffle((0 until mn).toList)

    val omega = shuffled.slice(0, sampSize)
    val ordered = omega.sortWith(_ < _).toArray
    val trainData: RDD[(Int, Int, Double)] = sc.parallelize(ordered)
      .map(x => (x % m, x / m, fullData.values(x)))

    // optionally add gaussian noise
    if (noise) {
      trainData.map(x => (x._1, x._2, x._3 + rand.nextGaussian * sigma))
    }

    trainData.map(x => x._1 + "," + x._2 + "," + x._3).saveAsTextFile(outputPath)

    // optionally generate testing data
    if (test) {
      val testSampSize = math.min(math.round(sampSize * testSampFact).toInt, mn - sampSize)
      val testOmega = shuffled.slice(sampSize, sampSize + testSampSize)
      val testOrdered = testOmega.sortWith(_ < _).toArray
      val testData: RDD[(Int, Int, Double)] = sc.parallelize(testOrdered)
        .map(x => (x % m, x / m, fullData.values(x)))
      testData.map(x => x._1 + "," + x._2 + "," + x._3).saveAsTextFile(outputPath)
    }
    sc.stop()
  }
}

  SVM样本生成方法和MFD样本生成方法都是探索类型的API,因此不建议使用!

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码