百合文库
首页 > 网文

第二次到达拉格朗日点(5)

2023-11-23 来源:百合文库
不过有个风险就是,既然是预测,肯定就会有一定的风险,如果哪个三体星系统判断失误,那就意味着从这里通行的巡航舰...
大家都明白了,这时候舰长经过短暂的思考,下达了按照BIT的方案执行的命令。
实际的结果如何呢?
02—掉书袋
【1】 上述情节是对K-近邻(KNN)分类算法的一个通俗演义。
【2】 K-近邻非常容易理解:在特征空间中,若一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一类别,则该样本也属于该类别。
【3】 K-近邻与聚类的思想上有些类似,但是K-近邻是监督算法,需要知道类别标签,然后对特征空间中与对应类别相近的点统一打上此标签。

第二次到达拉格朗日点


【4】这里强调一下K值的选取:如果K值选择的较小,模型容易过拟合;如果K值过大,那么模型就过于简单:下图展示了不同的K值对分类效果的影响,其中红色五边形是待分类点,也即不知道该点属于黑色圆圈类还是蓝色方块类。若K=1(红圈),意为待分类点(红色五边形)与最近的1个点类别相同,应该划分为黑色圆圈类;若K=8(蓝圈),意为五边形与最近的8个样本点的多数类相同,应该划分为蓝色方块类;若K=20(绿圈),意为五边形与最近的20个样本点的多数类相同,再次被划分为黑色圆圈类。实际结果是该点划分为蓝色方块类更合适,所以K值不能太大也不能太小。
【5】既然是“近邻”,那么需要有一个刻画远近的尺度标准,在实际应用过程中,通常采用欧氏距离作为刻画远近的标准

第二次到达拉格朗日点


03—参考文献 1. 关键字:《统计学习方法》、李航
2. 关键字:《机器学习》、西瓜书、周志华
3. 关键字:coursera、K-近邻


猜你喜欢