加载中…
  
博文
标签:

转载

学习了
1、用audioread('');函数读取电脑中的音频文件,参数是音频文件的路径:
[sampledata,FS] = audioread('F:1.mp3');
sampledata保存音频信号数据,FS是音频采样率,MP3格式的采样率一般为44100;

2、判断音频数据是否是双声道,如果是双声道则保留一个声道的数据,用calsample.m文件的函数完成此功能,文件内容如下:

function sample = calsample(sampledata
(2013-02-18 13:25)
分类: 机器学习
ELM(Extreme Learning Machine)是一种新型神经网络算法,最早由Huang于2004年提出【Extreme learning
machine: a new learning scheme of feedforward neural networks】。
与SVM,传统神经网络相比,ELM的训练速度非常快,需要人工干扰较少,对于异质的数据集其泛化能力很强。
Huang在【Extreme learning machines: a survey,2011】这篇论文中对ELM进行了总结,包括最初的ELM算法和后来被发展延伸的ELM算法(比如在线序列ELM算法、增量ELM算法和集成ELM算法等),里面的很多知识点值得学习。
ELM的原理
从神经网络的结构上来看,ELM是一个简单的SLFN,SLFN示意图如下:
http://s5/bmiddle/62b0682agd5f9bb021744&690
该SLFN包括三层:输入层、隐含层和输出层(忽略输入层则为两层)。其中隐含层包括L个隐含神经元,一般情况下L远小于N,输出层的输出为m维的向量,对于二分类问题,显然该向量是一维的。
标签:

杂谈

分类: 机器学习
1.朴素贝叶斯法
朴素贝叶斯法是基于贝叶斯定理和特征条件独立假设的分类方法。给定训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布,然后根据此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。
朴素贝叶斯法属于生成方法,关键在于找到输入输出的联合分布,或者说确定联合分布的参数也就确定了联合分布。在特征条件独立的假设下,对每一个特征通过频率求解其条件概率分布,这些条件概率分布最终用于求解后验概率。
开始之前最好先回顾一下条件概率公式全概率公式,它们是计算贝叶斯模型的基础。
条件概率wiki的链接:http://zh.wikipedia.org/wiki/条件分布
给定有限训练样本集,输入为特征向量,输出为类标记,在朴素贝叶斯方法中将输入和输出定义为在输入空间和输出空间的随机变量X和Y,贝叶斯方法在变量之上学习联合分布P(X,Y),具体地,学习先验概率分布
分类: 机器学习
1.kNN算法
k近邻算法的想法很简单,类似于多数表决,关键点是参与多数表决的人是离你最近的k个人。
给定一个实例,首先从训练集中找到离这个实例最近的k个实例,然后根据这k个实例中哪个标签出现次数最多决定该实例的标签。需要注意的点是:
a.距离的度量
b.k值得选取
c.存储和速度
度量距离有很多,这里介绍三种,即1范数,二范数和无穷大范数。假设两个实例的特征向量为:
1范数:
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有