用於簡單分類的極限學習機(Python實現)

2020-12-03 不靠譜的貓

極限學習機簡介

極限學習機是一種簡單單層前饋神經網絡(SLFN)機器學習學習算法。理論上,極限學習機算法(ELM)傾向於提供良好的性能(學習速度極快)。

與傳統的前饋網絡學習算法(如反向傳播BP算法)不同,ELM不使用基於梯度的技術。使用此方法,所有參數都將進行一次調優。該算法不需要迭代訓練。

ELM實現

1.創建隨機權重矩陣並為輸入層設置偏差。

權重矩陣和偏差的大小為(jxk)和(1 xk),其中j是隱藏節點的數量,k是輸入節點的數量。

2.計算隱藏層輸出矩陣

初始隱藏層輸出矩陣是通過將訓練數據X與權重矩陣的轉置相乘而得出的

3.選擇激活函數

您可以選擇所需的任何激活函數。但是在此示例中,我將選擇sigmoid激活函數。

4.計算Moore-Penrose偽逆

可以使用幾種方法來計算H的Moore-Penrose廣義逆。這些方法可以包括但不限於正交投影法,正交化方法,迭代方法和奇異值分解(SVD)。

5.計算輸出權重矩陣beta

6.對機器學習測試數據集重複步驟2,創建一個新的H矩陣。之後,創建名為的結果矩陣。

數據

我們將使用sklearn的make_classification機器學習庫生成隨機分類數據。

模型

模型的Python實現如下:

測試模型

測試模型的Python實現示例如下:

Accuracy: 0.89

我們的模型得出的準確度為0.89。可以通過許多方式來改變模型性能,例如:

激活函數隱藏的神經元數數據是否歸一化最後

極限學習機器算法是神經網絡中最有效的機器學習算法之一。由於進行了非迭代訓練,因此所有參數均被調優一次,這導致較高的訓練速度

相關焦點

  • 極限學習機 Extreme Learning Machines 介紹
    什麼是極限學習機?極限學習機(ELM, Extreme Learning Machines)是一種前饋神經網絡,最早由新加坡南洋理工大學黃廣斌教授於2006年提出。其發表的文章中對於極限學習機的描述如下:該算法具有良好的泛化性能以及極快的學習能力極限學習機和標準神經網絡的區別ELM 不需要基於梯度的反向傳播來調整權重,而是通過 Moore-Penrose generalized inverse來設置權值。
  • python實現高斯樸素貝葉斯分類器
    python實現高斯樸素貝葉斯分類器    在這篇文章中,我們將使用我最喜歡的機器學習庫scikit-learn在Python中實現樸素貝葉斯分類器。接下來,我們將使用經過訓練的樸素貝葉斯(監督分類法)模型來預測人口收入。
  • 小白學數據:教你用Python實現簡單監督學習算法
    有很多方法可以實現有監督學習,我們將探討幾種最常用的方法。根據給定的數據集,機器學習可以分為兩大類:分類(Classification)和回歸(Regression)。如果給定的數據集的輸出值是類別,那麼待解決是分類問題。
  • 《一站到底》選手力薦,訊飛智能學習機讓學習更簡單
    相較於其它衛視綜藝節目靠明星大腕引流的模式,《一站到底》可以說是一道「清流」,參與節目的選手來自各行各業,而且這檔節目的理念也與節目冠名方訊飛智能學習機X2 Pro主張的「智慧學習」品牌理念不謀而合。  在這檔節目中,最讓人津津樂道的,莫過於在節目中有著精彩表現的各路「站神」,尤其是很多小朋友,超強的表現著實讓人刮目相看,其中很多上臺的小「站神」都與訊飛智能學習機結下了不解之緣。
  • Python開發簡單爬蟲【學習資料總結】
    一、簡單爬蟲架構 簡單爬蟲架構 DOM樹 Beautiful Soup Python第三方庫,用於從
  • Serverless 架構下 Python 輕鬆搞定圖像分類
    簡介: 本文將會通過一個有趣的 Python 庫,快速將圖像分類的功能搭建在雲函數上,並且和 API 網關結合,對外提供 API 功能,實現一個 Serverless 架構的「圖像分類 API」。前言圖像分類是人工智慧領域的一個熱門話題。通俗解釋就是,根據各自在圖像信息中所反映的不同特徵,把不同類別的目標區分開來的圖像處理方法。
  • 【乾貨】隨機森林的Python實現
    【新智元導讀】在機器學習中,隨機森林是一個包含多個決策樹的分類器,並且其輸出的類別是由個別樹輸出的類別的眾數而定。隨機森林幾乎是任何預測類問題(甚至非線性問題)的首選。本文介紹了隨機森林的原理、用途,以及用 Python 實現隨機森林的方法。
  • Python實現視頻裁剪添加水印功能
    今天來實現一個利用Python的moviepy類庫裁剪視頻的功能。寫這個功能的初衷是想批量的裁剪一下視頻,下面一起來看一下代碼吧!python目前我們實現的是將單獨一個視頻進行裁剪。本次我們將目前視頻截取一小段內容,並為其添加一個水印圖片。
  • KNN分類算法的python實現
    前言 K最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個理論上比較成熟的方法,也是最簡單的機器學習算法之一。該方法的思路是:在特徵空間中,如果一個樣本附近的k個最近(即特徵空間中最鄰近)樣本的大多數屬於某一個類別,則該樣本也屬於這個類別。。
  • Python視頻教程網課編程零基礎入門數據分析網絡爬蟲全套Python...
    交叉分析方法與實現 4-10相關分析與實現 4-11因子分析與實現 4-12本章小結 5-01特徵工程概述 5-02數據樣本採集 5-03異常值處理 5-04標註 5-05特徵選擇 5-06特徵變換-對指化 5-07特徵變換-離散化 5-08特徵變換歸
  • 雲計算學習:用PyTorch實現一個簡單的分類器
    第一篇筆記,我們先完成一個簡單的分類器。主要流程分為以下三個部分:1,自定義生成一個訓練集,具體為在二維平面上的一些點,分為兩類;2,構建一個淺層神經網絡,實現對特徵的擬合,主要是明白在 pytorch 中網絡結構如何搭建;3,完成訓練和測試部分的工作,熟悉 pytorch 如何對網絡進行訓練和測試。1.
  • 用Python實現簡易超市售貨系統
    今天來實現一個簡單的超市售貨系統數據存儲形式為json的數據首先是讀取數據,這裡用到的Python的json庫,用於處理json類型的數據```pythondef load(): # 數據讀取j = open('goods.txt', 'r', encoding='utf-8')# 逐行讀取文件中的數據
  • 一文總結數據科學家常用的Python庫(下)
    TensorFlow提供簡單的模型構建,強大的機器學習生成,以及強大的實驗工具和庫。TensorFlow提供多個抽象級別供您根據需要進行選擇。它通過使用高級Keras API用於構建和訓練模型,這使得TensorFlow入門和機器學習變得容易。瀏覽此連結以查看安裝過程:https://www.tensorflow.org/install。
  • 科大訊飛學習機、OK學習機、步步高家教機測評,哪個適合初中生
    所以,這個時候可以選擇一臺好的學習機,居家學習也能提高學習成績。  可能有很多人都不知道學習機的好處,在這簡單的科普一下。  首先,孩子擁有一臺學習機,在家就可以自學,不用東奔西跑;再者,學習機內的學習資源也比較豐富,並且大部分都是免費的;同時,它能夠提供適合孩子的學習內容,然後很好地記錄和分析孩子的學習數據,幫助孩子查缺補漏。
  • 使用Python從頭開始實現深度學習庫
    深度學習已在短時間內從簡單的神經網絡演變為非常複雜的架構。為了支持這種快速擴展,在此過程中開發了許多不同的深度學習平臺和庫。這些庫的主要目標之一是提供用於構建和訓練深度學習模型的易於使用的界面,使用戶可以將更多的精力放在手頭的任務上。為此,可能需要將核心實現單元隱藏在幾個抽象層後面,這使得難以理解深度學習庫所基於的基本底層原理。
  • 算法應用|機器學習python應用,簡單機器學習項目實踐
    上一篇文章中介紹了機器學習的簡單知識,還有python中進行機器學習實踐需要的生態環境,接下來將會通過鳶尾花分類這個例子對機器學習做一個簡要的介紹。通過一步一步地實現這個項目來介紹以下內容。導入和使用python中機器學習的各個方面的類庫。導入數據,並通過描述性分析、可視化等對數據進行分析。創建六個模型,並從中選擇準確度最高的模型。
  • 訊飛智能學習機 讓英語學習更輕鬆!
    進入初三後的第一次大考——期中考試終於結束了,看到孩子的成績單,我心裡很是欣慰,特別是英語成績,相比較於之前已經有了很大的提升,這都得益於我給孩子買的一款英語學習機——訊飛智能學習機X2 Pro。
  • 高斯混合模型(GMM):理念、數學、EM算法和python實現
    數學EM算法是一種迭代算法,用於在無法直接找到參數的情況下尋找模型的最大似然估計(MLE)。它包括兩個步驟:期望步驟和最大化步驟。1.期望步驟:計算成員值r_ic。這是數據點x_i屬於聚類c的概率。2.
  • 以鳶尾花數據集為例,用Python對決策樹進行分類
    決策樹的優點包括可以同時用於回歸和分類,易於解釋且不需要特徵縮放。同時決策樹也存在劣勢,容易出現過度擬合就是其中之一。本教程主要介紹了用於分類的決策樹,也稱為分類樹。此外,本教程還將涵蓋:· 分類樹的解剖結構(樹的深度、根節點、決策節點、葉節點/終端節點)。
  • 基於 Python 實現動態分類器集成學習
    動態分類器選擇是一種用於分類預測建模的集成學習算法。該技術涉及在訓練數據集上擬合多個機器學習模型,然後基於要預測的示例的特定細節,選擇在進行預測時預期表現最佳的模型。這可以通過以下方法實現:使用k最近鄰模型在訓練數據集中找到最接近要預測的新示例的示例,評估該鄰域中池中的所有模型,並使用在鄰域中表現最佳的模型來對新示例做出預測。