
1 sanddudu 2014-04-07 15:46:53 +08:00 线性回归方程? |
3 rock_cloud 2014-04-07 16:13:03 +08:00 这个是最简单的线性分类啊,把OO的所有点坐标带入kx+b得到y1,XX的所有点坐标带入kx+b得到y2,然后最大化(y2-y1)^2就可以了。 |
4 11 2014-04-07 16:41:55 +08:00 线性判别分析(Linear Discriminant Analysis, LDA) |
5 u 2014-04-07 16:44:10 +08:00 同楼上。最基本的模式识别。 |
6 wuyazi OP https://gist.github.com/10017286 代码转自: http://blog.csdn.net/ranchlai/article/details/10303031 是这种方法吗? 第六行shift的变量原来是3,我改成1,想得到OO和XX交叉的分类结果,可是得到的图是这样的。。。 http://ntu.me/di/0TOLB/.jpg |
7 wuyazi OP |
8 die4live 2014-04-07 18:14:12 +08:00 SVM |
9 wuyazi OP |
10 msg7086 2014-04-07 18:34:39 +08:00 LDA 我记得是 machine learning 的技术吧…… |
11 wuyazi OP |
13 yangzh 2014-04-07 19:33:51 +08:00 请考虑 svm |
14 wuyazi OP |
15 die4live 2014-04-07 19:52:36 +08:00 理论方面可以看看 [支持向量机通俗导论(理解SVM的三层境界) - 结构之法 算法之道 - 博客频道 - CSDN.NET](http://blog.csdn.net/v_july_v/article/details/7624837#t34) [支持向量机系列 Free Mind](http://blog.pluskid.org/?page_id=683) 刚才用R试了下是可行的 设为线性核的话 也是可以得到k和b的 |