matlab练习程序(局部加权线性回归)

通常我们使用的最小二乘都需要预先设定一个模型,然后通过最小二乘方法解出模型的系数。

而大多数情况是我们是不知道这个模型的,比如这篇博客中z=ax^2+by^2+cxy+dx+ey+f 这样的模型。

局部加权线性最小二乘就不需要我们预先知道待求解的模型,因为该方法是基于多个线性函数的叠加,最终只用到了线性模型。

计算线性模型时引入了一个加权函数:

来给当前预测数据分配权重,分配机制是:给距离近的点更高的权重,给距离远的点更低的权重。

公式中的k类似与高斯函数中的sigma。

当sigma变大时,函数变得矮胖,计算局部线性函数时更多的使用全局数据;

当sigma变小时,函数变得瘦高,计算局部线性函数时更多的使用局部数据。

代码如下:

clear all;
close all;
clc;

x=(1:0.1:10)';
y=x.^2+x+3 +rand(length(x),1)*6;
plot(x,y,'.')

sigma=0.1;              %设置局部窗口,越大越使用全局数据,越小越使用局部数据
W=zeros(length(x));
C=[];
for i=1:length(x)    
    for j=1:length(x) 
        W(j,j)=exp(-((x(i)-x(j))^2)/(2*sigma^2));   %权重矩阵
    end

    XX=[x ones(length(x),1)];
    YY=y;
    C=[C inv(XX'*W*XX)*XX'*W*YY];           %加权最小二乘,计算求得局部线性函数的系数
    
end

re=diag(XX*C);
hold on;
plot(x,re);

结果如下:

可以看出,红色的局部线性函数最终拟合出了全局的数据。

不过该方法既然不需要知道模型,那我们如何预测未来的数据结果呢?