1. 首页
  2. 人工智能
  3. 机器学习
  4. 机器学习:牛顿方法实现逻辑回归

机器学习:牛顿方法实现逻辑回归

上传者: 2021-04-27 10:46:17上传 M文件 870B 热度 23次
实验步骤与内容: 1. 下载数据包ex3Data.zip并解压。 2. 对于这个练习,假设一所高中有一个数据集,代表40名被录取的学生和40名未被录取的学生。 每个(x (i),y(i)) 数据包括两个标准化考试中学生的分数和学生是否被录取的标签。任务是建立一个二元分类模型,根据学生在两次考试中的成绩来估计大学录取机会。 3. polt data:使用不同的符号来表示录取结果,画出图像。 4. 假设模型的函数为sigmoid function: 进行求最优解的代价函数cost function J(θ): 要求的就是J(θ)的最大值(极大似然估计),我们可以选用之前实验使用的梯度下降法,但是该方法的迭代次数较多,所以本次实验中使用的是牛顿迭代法: 牛顿方法: 用Hessian矩阵表示: 5. 在编程序前,要分析下各个计算公式中变量的维度(矩阵行列数)。实验中应定义 θ为0向量,迭代次数通常在5-15次,决策边界定义为: 即 6. 回答下面问题: (1) θ值为多少?我们需要迭代几次? (2) Exam1为20分,exam2为80分的同学会被录取吗?
用户评论