mysql client推薦的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

mysql client推薦的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦趙國生寫的 大數據基礎與應用 和張濤的 從零開始學Scrapy網路爬蟲(視頻教學版)都 可以從中找到所需的評價。

另外網站树莓派安装MySQL - 垲程的博客也說明:... MySQL,实现树莓派安装MySQL,安装mysql-server失败时推荐使用本方法。 ... sudo apt-get install mysql-server mysql-client python-mysqldb.

這兩本書分別來自機械工業 和機械工業所出版 。

國立中正大學 資訊工程研究所 何建忠所指導 楊閏宇的 改善於社交網路分析應用效能之圖感知固態硬碟設計 (2020),提出mysql client推薦關鍵因素是什麼,來自於固態硬碟、圖感知、圖處理系統、圖儲存、社群網路分析。

而第二篇論文國立臺北科技大學 電機工程系 王永鐘所指導 蔣自然的 基於SVM技術之購屋資訊推薦系統設計與實作 (2019),提出因為有 支持向量機、Docker、React-Native、Expo、Node.js的重點而找出了 mysql client推薦的解答。

最後網站SQL Client for Mac OS X that works with MS SQL Server [closed]則補充:I ended up using DBeaver, which can work very well with almost every type of databases, including MySQL, SQL Server, Oracle, PostgreSQL, SAP ...

接下來讓我們看這些論文和書籍都說些什麼吧:

除了mysql client推薦,大家也想知道這些:

大數據基礎與應用

為了解決mysql client推薦的問題,作者趙國生 這樣論述:

共分為12章,章介紹了大資料產生的背景、大資料的結構與特徵、大資料相關概念、大資料視覺化、大資料相關工具與發展前景。第2~9章為基礎知識部分,介紹了大資料的生態系統全貌,重點對計算平臺Hadoop、分散式檔案系統HDFS、計算框架MapReduce、開來源資料庫HBase、典型工具NoSQL、集群計算Spark、流計算Storm和分散式協調系統Zookeeper等相關技術進行了詳細介紹,通過實例使讀者具備解決實際問題的能力。第~12章為典型應用案例部分,介紹了大資料分析應用系統的開發過程,涵蓋了資料獲取、資料分析、資料轉換和結果顯示的整個互動式大資料處理和分析流程。   《大資料基礎與應用》內

容豐富、條理清晰、示例指導性強,讀者可以通過章後的習題對所學內容作進一步鞏固,熟練掌握大資料基本原理、工程應用場景及實驗分析技巧。   《大資料基礎與應用》適合作為大中專院校資料科學與大資料專業、電腦類專業的教材,也可以作為讀者自學或者科研技術人員的參考書。 前言 第1章初識大數據 1.1大資料產生的背景 1.2大資料的結構與特徵 1.2.1大資料的結構 1.2.2大資料的特徵 1.3大資料相關概念 1.3.1大資料關鍵技術 1.3.2資料類型與資料管理 1.3.3資料倉庫 1.3.4資料採擷 1.4大數據視覺化 1.4.1什麼是數據視覺化 1.4.2資料視覺化的工具與方

法 1.4.3數據視覺化的建模 1.4.4資料視覺化分類 1.5大資料相關工具 1.5.1Hadoop 1.5.2R語言 1.5.3Python語言 1.5.4RapidMiner 1.5.5Tableau 1.6大數據時代的新機遇 1.6.1資料價值 1.6.2應用價值 1.6.3發展前景 1.7本章小結 1.8習題 第2章大資料處理架構Hadoop 2.1Hadoop簡介 2.2Hadoop發展史及特點 2.3Hadoop體系結構 2.3.1HDFS體系結構 2.3.2MapReduce體系結構 2.4配置Linux環境 2.4.1安裝VMware12虛擬機器 2.4.2部署CentOS

64位元作業系統 2.4.3配置網路 2.4.4Linux終端 2.5Hadoop環境搭建 2.5.1JDK安裝和測試 2.5.2Hadoop安裝和配置 2.5.3SSH免密碼配置 2.6Hadoop關鍵元件 2.6.1HDFS 2.6.2HBase 2.6.3MapReduce 2.6.4Hive 2.6.5Pig 2.6.6Mahout 2.6.7ZooKeeper 2.6.8Flume 2.6.9Sqoop 2.6.10Ambari 2.7本章小結 2.8習題 第3章分散式檔案系統HDFS 3.1HDFS概念 3.1.1HDFS簡介 3.1.2HDFS相關概念 3.2HDFS體系結構

3.3HDFS檔存儲機制 3.4HDFS的資料讀寫過程 3.4.1讀數據的過程 3.4.2寫資料的過程 3.5HDFS應用實踐 3.5.1HDFS常用命令 3.5.2HDFS的Web介面 3.5.3HDFS常用Java API及應用實例 3.6本章小結 3.7習題 第4章計算系統MapReduce 4.1MapReduce概述 4.1.1MapReduce簡介 4.1.2MapReduce 資料類型與格式 4.1.3資料類型Writable介面 4.1.4Hadoop序列化與反序列化機制 4.2MapReduce架構 4.2.1數據分片 4.2.2MapReduce的集群行為 4.2.3M

apReduce作業執行過程 4.3MapReduce介面類別 4.3.1MapReduce輸入的處理類 4.3.2MapReduce輸出的處理類 4.4MapReduce應用案例——單詞計數程式 4.4.1WordCount代碼分析 4.4.2WordCount處理過程 4.5本章小結 4.6習題 第5章分散式資料庫HBase 5.1初識HBase 5.1.1HBase的來源 5.1.2HBase的特點 5.1.3HBase的系統架構 5.2HBase安裝與配置 5.2.1HBase運行模式分類 5.2.2Hbase的安裝 5.2.3HBase基本API實例 5.2.4HBase Shel

l工具使用 5.3Hbase的存儲結構 5.3.1存儲結構中重要模組 5.3.2HBase物理存儲和邏輯視圖 5.3.3資料座標 5.4HBase的實現原理 5.4.1Hbase的讀寫流程 5.4.2表和Region 5.4.3Region的定位 5.5HBase表結構設計 5.5.1列族定義 5.5.2表設計原則 5.5.3Rowkey設計 5.6本章小結 5.7習題 第6章NoSQL資料庫 6.1NoSQL簡介 6.1.1NoSQL的含義 6.1.2NoSQL的產生 6.1.3NoSQL的特點 6.2NoSQL技術基礎 6.2.1一致性策略 6.2.2數據分區與放置策略 6.2.3資料複

製與容錯技術 6.2.4資料的緩存技術 6.3NoSQL的類型 6.3.1鍵值存儲 6.3.2列存儲 6.3.3面向文檔存儲 6.3.4圖形存儲 6.4NoSQL典型工具 6.4.1Redis 6.4.2CouchDB 6.5本章小結 6.6習題 第7章集群計算Spark 7.1深入理解Spark 7.1.1Spark簡介 7.1.2Spark與Hadoop差異 7.1.3Spark的適用場景 7.1.4Spark成功案例 7.2Spark的安裝與配置 7.2.1安裝模式 7.2.2Spark的安裝 7.2.3啟動並驗證Spark 7.3Spark程式的運行模式 7.3.1Spark on

Yarn-cluster 7.3.2Spark on Yarn-client 7.4Spark程式設計實踐 7.4.1啟動Spark Shell 7.4.2Spark RDD基本操作 7.4.3Spark應用程式 7.5Spark的三個典型應用案例 7.5.1詞頻數統計 7.5.2人口的平均年齡 7.5.3搜索頻率最高的K個關鍵字 7.6本章小結 7.7習題 第8章流計算Storm 8.1流計算概述 8.1.1流計算的概念 8.1.2流計算與Hadoop 8.1.3流計算框架 8.2開源流計算框架Storm 8.2.1Storm簡介 8.2.2Storm的特點 8.2.3Storm的設計思想

8.2.4Storm的框架設計 8.3即時計算處理流程 8.3.1資料即時採集和計算 8.3.2資料查詢服務 8.4典型的流引擎Spark Streaming 8.4.1Spark Streaming 8.4.2Storm和Spark Streaming框架 對比 8.5流計算的應用案例——電商 即時銷售額的監控 8.5.1技術架構 8.5.2技術實現 8.5.3項目預案 8.6本章小結 8.7習題 第9章分散式協調系統ZooKeeper 9.1ZooKeeper概述 9.1.1ZooKeeper簡介 9.1.2ZooKeeper資料模型 9.1.3ZooKeeper特徵 9.1.4Zoo

Keeper工作原理 9.2ZooKeeper的安裝和配置 9.2.1安裝ZooKeeper 9.2.2配置ZooKeeper 9.2.3運行ZooKeeper 9.3ZooKeeper的簡單操作及步驟 9.4ZooKeeper Shell操作 9.4.1ZooKeeper服務命令 9.4.2ZooKeeper用戶端命令 9.5ZooKeeper API操作 9.6ZooKeeper應用案例——Master選舉 9.6.1使用場景及結構 9.6.2編碼實現 9.7本章小結 9.8習題 第10章銷售資料分析系統 10.1資料獲取 10.1.1在Windows下安裝JDK 10.1.2在Wind

ows下安裝Eclipse 10.1.3將WebCollector項目導入Eclipse 10.1.4在Windows下安裝MySQL 10.1.5連接JDBC 10.1.6運行爬蟲程式 10.2在HBase集群上準備數據 10.2.1將數據導入到MySQL 10.2.2將MySQL表中的資料導入到HBase表中 10.3安裝Phoenix仲介軟體 10.3.1Phoenix架構 10.3.2解壓安裝Phoenix 10.3.3Phoenix環境配置 10.3.4使用Phoenix 10.4基於Web的前端開發 10.4.1將Web前端項目導入Eclipse 10.4.2安裝Tomcat 10

.4.3在Eclipse中配置Tomcat 10.4.4在Web流覽器中查看執行結果 10.5本章小結 10.6習題 第11章互動式資料處理 11.1數據預處理 11.1.1查看數據 11.1.2資料擴展 11.1.3數據過濾 11.1.4數據上傳 11.2創建資料倉庫 11.2.1創建資料倉庫的基本命令 11.2.2創建Hive區分表 11.3資料分析 11.3.1基本統計 11.3.2用戶行為分析 11.3.3即時資料 11.4本章小結 11.5習題 第12章協同過濾推薦系統 12.1推薦演算法概述 12.1.1基於人口統計學的推薦 12.1.2基於內容的推薦 12.1.3基於協同過濾

的推薦 12.2協同過濾推薦演演算法分析 12.2.1基於用戶的協同過濾推薦 12.2.2基於物品的協同過濾推薦 12.3Spark MLlib推薦演算法應用 12.3.1ALS演算法原理 12.3.2ALS的應用設計 12.4本章小結 12.5習題 附錄課後習題答案 參考文獻

改善於社交網路分析應用效能之圖感知固態硬碟設計

為了解決mysql client推薦的問題,作者楊閏宇 這樣論述:

近年隨著社群網路應用的快速發展下,相關應用開發商及媒體平台會利用圖資料庫(graph database)管理儲存使用者資料後進行社群網路分析,找出使用者潛在喜好、精準廣告投放、交友搜尋推薦等目的。發展至今的系統稱為圖處理系統,是基於圖資料庫整合圖儲存(graph storage)模塊來處理資料流,來因應快速擴增的資料規模,換言之,存取速度左右了整體社群網路分析的快慢程度。先前不少研究將目光放到如何增進圖處理系統 I/O 表現,例如會利用壓縮或是分割等技巧來達成。但截至目前仍沒有研究將現今廣泛應用的固態硬碟(solid-state drive, SSD) 的潛力發揮到極致,僅僅將其作為高速的傳

統機械硬碟使用,忽略其固有特性與管理機制的負擔,例如異地更新(out-of-place update)與垃圾回收(garbage collection, GC)。除此之外,當前的研究中也沒有提出具備同時讓固態硬碟能理解上層的使用意圖並且自行將資料重新整理成適合上層存取的形式之作法。儲存裝置僅能得知上層給予的邏輯塊位置(logic block address, LBA)資訊,並不能真正了解資料內容,因此難以進一步讓儲存裝置自行協助上層提升 I/O。本文提出一種圖感知的固態硬碟設計,能夠主動觀察上層的請求並持續追蹤猜測是否具備圖應用的存取行為特徵,讓儲存裝置能自行將資料整理。實驗表明能夠減少將近

95% 的讀取時間。考慮圖更新的情境,提出將寫入請求區分的機制,進而減少更新圖的時間以及延遲了 GC 啟動次數,經測試該方法能夠減少將近 79% 處理時間及 52% GC 被延後。

從零開始學Scrapy網路爬蟲(視頻教學版)

為了解決mysql client推薦的問題,作者張濤 這樣論述:

本書從零開始,循序漸進地介紹了目前最流行的網路爬蟲框架Scrapy。本書共13章。其中第1~4章為基礎篇,介紹了Python基礎、網路爬蟲基礎、Scrapy框架及基本的爬蟲功能。第5~10章為進階篇,介紹了如何將爬蟲數據存儲於MySQL、MongoDB和Redis數據庫中;如何實現非同步的Ajax數據的爬取;如何使用Selenium和Splash實現動態網站的爬取;如何實現模擬登錄功能;如何突破反爬蟲技術,以及如何實現檔和圖片的下載。第11~13章為高級篇,介紹了使用Scrapy-Redis實現分散式爬蟲;使用Scrapyd和Docker部署分散式爬蟲;使用Gerapy管理分散式爬蟲,並實現了

一個搶票軟體的綜合專案。 本書適合爬蟲初學者、爬蟲愛好者及高校相關學生,也適合數據爬蟲工程師作為參考讀物,同時也適合各大院校和培訓機構作為教材使用。 張濤 畢業于中國科學技術大學,獲碩士學位。目前在科大訊飛從事人工智慧教育培訓與研究。加入科大訊飛之前,曾經在知名日資企業任職研發經理,負責日本大型證券系統的設計與開發。有7年大學課程改革與教學經驗,主要研究方向為Python網路爬蟲、資料分析和機器學習。 第1篇  基礎篇 第1章  Python基礎 2 1.1  Python簡介 2 1.1.1  Python簡史 2 1.1.2  搭建Python環

境 3 1.1.3  安裝PyCharm整合式開發環境 6 1.2  Python基本語法 7 1.2.1  基底資料型別和運算 7 1.2.2  運算子和運算式 8 1.2.3  條件判斷語句 9 1.2.4  迴圈語句 10 1.2.5  字串 12 1.3  Python內置資料結構 14 1.3.1  列表 15 1.3.2  字典 16 1.3.3  元組 17 1.3.4  遍歷物件集合 17 1.4  Python模組化設計 18 1.4.1  函數 18 1.4.2  反覆運算器(iterator) 20 1.4.3  生成器(Generator) 20 1.4.4  類和對象

22 1.4.5  文件與異常 23 1.5  本章小結 25 第2章  網路爬蟲基礎 26 2.1  HTTP基本原理 26 2.1.1  URL介紹 27 2.1.2  HTTP和HTTPS協議 27 2.1.3  HTTP請求(Request) 27 2.1.4  HTTP回應(Response) 30 2.2  網頁基礎 32 2.2.1  HTML文檔 33 2.2.2  網頁的結構 33 2.2.3  節點樹及節點之間的關係 34 2.3  使用XPath提取網頁資訊 36 2.3.1  XPath介紹 36 2.3.2  XPath常用路徑運算式 36 2.3.3  XPath

帶謂語的路徑運算式 39 2.4  本章小結 40 第3章  Scrapy框架介紹 41 3.1  網路爬蟲原理 41 3.1.1  爬蟲執行的流程 41 3.2  Scrapy框架結構及執行流程 42 3.2.1  Scrapy框架結構 42 3.2.2  Scrapy執行流程 44 3.3  Scrapy安裝 44 3.3.1  使用pip安裝Scrapy 44 3.3.2  常見安裝錯誤 45 3.3.3  驗證安裝 46 3.4  第一個網路爬蟲 46 3.4.1  需求分析 46 3.4.2  創建項目 47 3.4.3  分析頁面 48 3.4.4  實現Spider爬蟲功能 49

3.4.5  運行爬蟲 50 3.4.6  常見問題 51 3.5  本章小結 52 第4章  Scrapy網路爬蟲基礎 53 4.1  使用Spider提取資料 53 4.1.1  Spider組件介紹 53 4.1.2  重寫start_requests()方法 55 4.1.3  Request對象 57 4.1.4  使用選擇器提取資料 58 4.1.5  Response對象與XPath 59 4.1.6  Response對象與CSS 61 4.1.7  進一步瞭解Response物件 62 4.1.8  多頁數據的爬取 63 4.2  使用Item封裝資料 64 4.2.1  

定義Item和Field 65 4.2.2  使用ItemLoader填充容器 66 4.3  使用Pipeline處理資料 69 4.3.1  Item Pipeline介紹 70 4.3.2  編寫自己的Item Pipeline 70 4.3.3  啟用Item Pipeline 71 4.3.4  多個Item Pipeline 71 4.3.5  保存為其他類型文件 72 4.4  項目案例:爬取鏈家網二手房信息 75 4.4.1  專案需求 75 4.4.2  技術分析 76 4.4.3  代碼實現及解析 77 4.5  本章小結 85 第2篇  進階篇 第5章  資料庫存儲 8

8 5.1  MySQL資料庫 88 5.1.1  關係型數據庫概述 88 5.1.2  下載和安裝MySQL資料庫 88 5.1.3  資料庫管理工具Navicat 92 5.1.4  Python訪問MySQL資料庫 94 5.1.5  項目案例 97 5.2  MongoDB資料庫 100 5.2.1  NoSQL概述 100 5.2.2  MongoDB介紹 100 5.2.3  MongoDB的下載和安裝 101 5.2.4  Python訪問MongoDB資料庫 102 5.2.5  項目案例 108 5.3  Redis資料庫 111 5.3.1  Redis的下載和安裝 111

5.3.2  Python訪問Redis 113 5.3.3  項目案例 118 5.4  本章小結 121 第6章  JavaScript與AJAX數據爬取 122 6.1  JavaScript簡介 122 6.2  項目案例:爬取QQ音樂榜單歌曲 122 6.2.1  專案需求 122 6.2.2  技術分析 123 6.2.3  代碼實現及解析 126 6.2.4  更常見的動態網頁 128 6.3  AJAX簡介 129 6.4  項目案例:爬取豆瓣電影資訊 130 6.4.1  專案需求 130 6.4.2  技術分析 130 6.4.3  代碼實現及解析 133 6.5  本章

小結 135 第7章  動態渲染頁面的爬取 136 7.1  Selenium實現動態頁面爬取 136 7.1.1  Selenium安裝 136 7.1.2  Selenium簡單實現 137 7.1.3  Selenium語法 138 7.2  項目案例:爬取今日頭條熱點新聞 145 7.2.1  專案需求 145 7.2.2  技術分析 145 7.2.3  代碼實現及解析 147 7.3  Splash實現動態頁面爬取 151 7.3.1  Splash介紹 151 7.3.2  Splash環境搭建 152 7.3.3  Splash模組介紹 156 7.4  項目案例:爬取一號店中

的iPhone手機資訊 162 7.4.1  專案需求 162 7.4.2  技術分析 163 7.4.3  代碼實現及解析 165 7.5  本章小結 168 第8章  模擬登錄 169 8.1  模擬登錄解析 169 8.1.1  登錄過程解析 169 8.1.2  模擬登錄的實現 171 8.2  驗證碼識別 174 8.2.1  使用OCR識別驗證碼 174 8.2.2  處理複雜驗證碼 176 8.2.3  五花八門的驗證碼 177 8.3  Cookie自動登錄 177 8.3.1  Cookie介紹 178 8.3.2  獲取Cookie的庫—browsercookie 179

8.4  項目案例:爬取起點中文網某使用者的書架資訊 180 8.4.1  專案需求 180 8.4.2  技術分析 180 8.4.3  代碼實現及解析 182 8.5  本章小結 184 第9章  突破反爬蟲技術 185 9.1  反爬蟲技術及突破措施 185 9.2  偽裝成不同的流覽器 187 9.2.1  UserAgentMiddleware中介軟體介紹 187 9.2.2  實現偽裝成隨機流覽器 188 9.2.3  更簡單的方法 191 9.3  使用HTTP代理伺服器 192 9.3.1  HTTP代理伺服器 192 9.3.2  獲取免費代理 193 9.3.3  實現隨機

代理 199 9.4  本章小結 202 第10章  檔和圖片下載 203 10.1  文件下載 203 10.1.1  FilesPipeline執行流程 203 10.2  項目案例:爬取seaborn案例原始檔案 204 10.2.1  專案需求 204 10.2.2  技術分析 206 10.2.3  代碼實現及解析 206 10.2.4  更多功能 211 10.3  圖片下載 212 10.4  項目案例:爬取攝圖網圖片 213 10.4.1  專案需求 213 10.4.2  技術分析 215 10.4.3  代碼實現及解析 215 10.5  本章小結 221 第3篇  高級

篇 第11章  Scrapy-Redis實現分散式爬蟲 224 11.1  分散式爬蟲原理 224 11.2  Scrapy-Redis實現分散式爬蟲分析 225 11.2.1  實現分散式爬蟲思路 225 11.2.2  Scrapy-Redis代碼解析 226 11.2.3  分散式爬蟲功能配置 231 11.3  項目案例:分散式爬蟲爬取攝圖網圖片 233 11.3.1  技術分析 233 11.3.2  代碼實現及解析 234 11.4  本章小結 237 第12章  Scrapyd部署分散式爬蟲 238 12.1  使用Scrapyd部署分散式爬蟲 238 12.1.1  Scrap

yd的安裝及運行 238 12.1.2  Scrapyd功能介紹 241 12.2  使用Scrapyd-Client批量部署 244 12.3  使用Docker部署分散式爬蟲 248 12.4  使用Gerapy管理分散式爬蟲 253 12.5  本章小結 258 第13章  綜合專案:搶票軟體的實現 259 13.1  專案需求 259 13.2  技術分析 262 13.3  項目實現及解析 263 13.3.1  搭建Scrapy項目框架 263 13.3.2  實現獲取網站資訊的爬蟲 264 13.3.3  實現網站處理類 266 13.3.4  實現購票類 267 13.3.5

 實現購票功能 280 13.3.6  運行項目 282 13.3.7  優化項目 282 13.4  本章小結 283   隨著人工智慧浪潮的到來,筆者身邊有越來越多的人投入到人工智慧和大資料的學習與研究中。他們來自不同的行業,有高校老師和學生,有AI研究專家,有物理或數學專業人才。他們都迫切希望能夠獲取大量相關領域的資料,用於學習和研究。而互聯網中源源不斷的海量資料為他們提供了一個既經濟又可靠的來源。如何簡單、高效、快捷地獲取這些資料呢?筆者試圖為他們推薦幾本能快速入手的書籍。經過一番瞭解,發現目前市場上關於網路爬蟲的圖書主要分為兩類:一類是翻譯成中文的外版圖書,其定位

相對高端,且翻譯品質參差不齊,閱讀難度較大,不易上手,故不適合初學者學習;另一類是國內原創的一些關於網路爬蟲的圖書,這些書大多要求讀者具備一定的Python程式設計基礎,雖然書中對各種網路爬蟲框架都有介紹,但是不深入也不成體系,對於零基礎或非電腦專業的人員來說,顯然也不太適合。 於是,他們就“慫恿”我,希望我能編寫一本從零基礎開始學起的網路爬蟲書籍。雖然我從事網路爬蟲教學工作多年,但我深知教學跟寫書是兩碼事。教學注重臨場發揮,思維比較發散;而寫書要求文筆流暢、邏輯嚴謹縝密。我實在沒有信心接受這個挑戰。直到有一天,機械工業出版社的編輯聯繫到了我,認為我從事教育和研究工作,能講、會說、有技術,對

寫書來說正是最大的優勢。於是在編輯的鼓勵和指導下,我開始構思和梳理文章脈絡:首先,《從零開始學Scrapy網路爬蟲》受眾要廣,即使是零基礎或非電腦專業的“小白”也能上手;其次,《從零開始學Scrapy網路爬蟲》內容不追求多和雜,只選用最流行、最好用、最強大的網路爬蟲框架介紹即可;最後,《從零開始學Scrapy網路爬蟲》的可操作性和實用性要強,通過反覆運算案例加深讀者對知識的理解與應用,以典型的、知名的網站為爬取目標,提高讀者解決實際問題的能力。《從零開始學Scrapy網路爬蟲》正是遵循這樣的思路逐步推進,不斷優化,最後順利地完成了寫作。  

基於SVM技術之購屋資訊推薦系統設計與實作

為了解決mysql client推薦的問題,作者蔣自然 這樣論述:

買房必須評估自身的經濟能力,選擇適合的貸款方案及適當的房屋價格。在大量的資訊中,找尋符合自己條件的貸款方案與房子往往耗費大量時間和精力。為了減少上述所造成的困擾,本論文設計整合貸款方案、購屋者經濟狀況與喜好之房屋平台,以提供個人化的組合,使購屋者可以輕鬆找到符合自身條件的物件。本系統基於爬蟲蒐集之房屋與貸款方案資訊,以使用者每月可使用金額、自備金額與貸款年限之條件,列出適用的貸款方案,以該方案之總費用年百分率(APR)及「本息平均攤還」方式計算使用者購屋參考金額,並提供參考金額的房屋資訊。本系統提供房屋推薦功能,列出房屋資料與圖片供使用者選擇是否喜歡,並將使用者喜好紀錄於資料庫,最後以支持向

量機模型推薦更符合使用者喜好之房屋。系統架構分為三部分:手機應用程式、後端與爬蟲模組。手機應用程式使用React-Native與Expo框架,簡化開發環境安裝、應用部屬、程式轉譯等步驟。後端採用Docker架設Node.js執行環境與機器學習模組,處理商業邏輯(Business Logic)及資料訓練。爬蟲模組使用Python與Selenium進行資料處理與蒐集。