大师兄的数据分析学习笔记(二十二):逻辑回归(Logistic Regression)
大师兄的数据分析学习笔记(二十四):回归树与提升树
- 分类可以看做是有限状态的回归。
- 回归可以看做是无限定序数据的分类。
- 给定一些特征和特征的标注,整理他们的特征、标注和连续值。
- 当一个未知数据进入时,让新数据的特征,和整理好的被给定的数据特征中最相似的数据特征保持一致的分类,或保持相近的连续值。
- 也就是说让测试集和验证集的数据,尽可能的找到训练集中与他们相近的标注,作为他们的标注。
- 如何近似的标注不止一个,可以用投票或者取平均值的方式决定最终的值,这就是分类和回归



- 其中最左侧是数据的特征。
- 实线表示系数。
- 特征与值相乘的和SUM为最终值,用来判断类别。
如果最终值SUM不用来直接比较,而是通过一个逻辑函数:

- 如果函数f是逻辑函数sigmoid
,则模型变为逻辑回归:
。



- 图中的线代表的都是参数,且这些参数都是相互独立的。
- 每个节点都是将参数与属性相乘的和进行转换的过程,也就是感知器。

- 输入层要求对全部的特征进行归一化。
- 输出层要求为one-hot形式。
- 隐含层输入与输出进行非线性变换的重要一层,其中对收敛影响较大的是节点中的转换函数f,被称为激活函数,比如逻辑回归中的sigmoid。
- 前向计算:当参数被确定后,都会被附上随机值,然后先把特征都输入,然后进行计算。
- 计算误差:计算结果和拟合值得误差。
- 反向单层调整:根据误差,用梯度下降法调整输出层和隐含层之间一层的系数。
- 传播:调整隐含层和输入层之间的误差。
之后不断迭代上面的过程,不断地输入数据,直到模型的误差达到一定范围以内/迭代或一定次数后,则被认为收敛。
- 优点:收敛更快,计算开销少。
- 缺点:容易陷入局部最优解。
- 非线性拟合能力特别强,只要宽度足够大,深度足够深,可以拟合任何非线性数据。
- 易受离群点影响,易过拟合(可通过正则化和dropout解决)
- 属性与结果要在0-1之间。
- 输出结果要进行Softmax转化。
>>>import os
>>>import pandas as pd
>>>import tensorflow as tf
>>>from sklearn.model_selection import train_test_split
>>>from sklearn.metrics import accuracy_score,recall_score,f1_score
>>>from keras.models import Sequential
>>>from keras.layers.core import Dense,Activation
>>>df = pd.read_csv(os.path.join(".", "data", "WA_Fn-UseC_-HR-Employee-Attrition.csv"))
>>>X_tt,X_validation,Y_tt,Y_validation = train_test_split(df.JobLevel,df.JobSatisfaction,test_size=0.2)
>>>X_train,X_test,Y_train,Y_test = train_test_split(X_tt,Y_tt,test_size=0.25)
>>>mdl = Sequential()
>>>mdl.add(Dense(50))
>>>mdl.add(Activation("sigmoid"))
>>>mdl.add(Dense(2))
>>>mdl.add(Activation("softmax"))
>>>mdl.compile(loss="mean_squared_error",optimizer=tf.keras.optimizers.SGD(lr=0.05))
>>>mdl.fit(X_train,Y_train,epochs=50,batch_size=800)
>>>xy_lst = [(X_train,Y_train),(X_validation,Y_validation),(X_test,Y_test)]
>>>for i in range(len(xy_lst)):
>>> X_part = xy_lst[i][0]
>>> Y_part = xy_lst[i][1]
>>> Y_pred = mdl.predict(X_part).argmax(axis=1)
>>> print(i)
>>> print("NN","-ACC",accuracy_score(Y_part,Y_pred))
>>> print("NN","-REC",recall_score(Y_part,Y_pred,average='macro'))
>>> print("NN","-F1",f1_score(Y_part,Y_pred,average='macro'))
>>> print("="*40)
Epoch 1/50
2/2 [==============================] - 0s 3ms/step - loss: 6.2342
Epoch 2/50
2/2 [==============================] - 0s 1000us/step - loss: 6.2133
Epoch 3/50
2/2 [==============================] - 0s 1ms/step - loss: 6.2000
Epoch 4/50
2/2 [==============================] - 0s 2ms/step - loss: 6.1928
Epoch 5/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1893
Epoch 6/50
2/2 [==============================] - 0s 0s/step - loss: 6.1877
Epoch 7/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1870
Epoch 8/50
2/2 [==============================] - 0s 0s/step - loss: 6.1867
Epoch 9/50
2/2 [==============================] - 0s 0s/step - loss: 6.1866
Epoch 10/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1866
Epoch 11/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 12/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 13/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 14/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 15/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 16/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 17/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 18/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 19/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 20/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 21/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 22/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 23/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 24/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 25/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 26/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 27/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 28/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 29/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 30/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 31/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 32/50
2/2 [==============================] - 0s 999us/step - loss: 6.1865
Epoch 33/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 34/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 35/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 36/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 37/50
2/2 [==============================] - 0s 1ms/step - loss: 6.1865
Epoch 38/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 39/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 40/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 41/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 42/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 43/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 44/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 45/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 46/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 47/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 48/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
Epoch 49/50
2/2 [==============================] - 0s 0s/step - loss: 6.1865
Epoch 50/50
2/2 [==============================] - 0s 1000us/step - loss: 6.1865
0
NN -ACC 0.022675736961451247
NN -REC 0.022099447513812154
NN -F1 0.02807017543859649
========================================
1
NN -ACC 0.017006802721088437
NN -REC 0.01818181818181818
NN -F1 0.02040816326530612
========================================
2
NN -ACC 0.02040816326530612
NN -REC 0.022641509433962266
NN -F1 0.029629629629629627
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,
目录前言滤波电路科普主要分类实际情况单位的概念常用评价参数函数型滤波器简单分析滤波电路构成低通滤波器RC低通滤波器RL低通滤波器高通滤波器RC高通滤波器RL高通滤波器部分摘自《LC滤波器设计与制作》,侵权删。前言最近需要学习放大电路和滤波电路,但是由于只在之前做音乐频谱分析仪的时候简单了解过一点点运放,所以也是相当从零开始学习了。滤波电路科普主要分类滤波器:主要是从不同频率的成分中提取出特定频率的信号。有源滤波器:由RC元件与运算放大器组成的滤波器。可滤除某一次或多次谐波,最普通易于采用的无源滤波器结构是将电感与电容串联,可对主要次谐波(3、5、7)构成低阻抗旁路。无源滤波器:无源滤波器,又称
SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手