前言
資料入庫是指将采集好的資料存儲到資料庫中以便後續處理和分析。作為一名PC端爬蟲工程師,掌握資料入庫技能是必不可少的。在進行資料采集的同時,将資料實時地存儲到資料庫中,可以讓資料得到更好地管理和利用,提高效率和效益。
一般而言,進行資料入庫有以下幾個步驟:
- 資料庫的建立和配置:選擇一個合适的資料庫,根據實際需要建立資料庫表和配置資料庫連接配接等參數。
- 資料庫連接配接:建立資料庫與Python的連接配接。有關Python連接配接資料庫的方法有很多種,比如通過Python自帶的SQLite資料庫子產品、通過MySQL Connector等第三方庫進行連接配接。
- 資料準備和清洗:在進行資料入庫之前,需要進行針對性的資料準備和清洗工作。比如,對采集到的資料進行初步處理,處理掉無意義的資料,将有用的資料組織好。
- 資料的插入和更新:通過Python提供的資料庫操作工具(如SQLAlchemy)或sql語句來進行資料的插入和更新操作。
- 資料庫的維護:包括對資料庫表的清理、優化和備份等操作,以確定資料庫的穩定運作。
需要注意的是,資料庫入庫不僅涉及到資料庫本身的知識,還需要對Python程式設計語言有一定的掌握。是以,PC端爬蟲工程師在進行資料入庫之前,需要先掌握Python的基礎文法,熟練掌握Python的相關技巧,才能順利地進行資料采集和入庫工作。
總而言之,資料入庫是PC端爬蟲工程師不可或缺的一項技能。隻有掌握好資料入庫技能,才能為企業或個人實作更好地資料分析和應用,提高資料價值。
python文檔+筆記+了解接單+源碼擷取方式
内容:
1.面試專題幾十個大廠面試題
2.入門基礎教程
3.11子產品零基礎到精通筆記
4.百個項目實戰+爬蟲教程+代碼
5.量化交易,機器學習,深度學習
6.Python遊戲源碼
7.交流學習
8.了解接單市場
9.DNF自動識别打怪
10.3263頁學習資料
一丶MySQL
MySQL是一種常用的關系型資料庫管理系統,廣泛應用于各種應用場景。在進行資料采集和入庫工作時,掌握MySQL資料庫的使用是極為重要的。
1.MySQL表結構設計
MySQL表結構設計是進行資料入庫時需要考慮的一個重要問題。一個好的表結構設計可以保證資料的存儲和管理更加高效和便捷。以下是幾個關鍵點,供PC端爬蟲工程師在進行MySQL表結構設計時參考:
- 字段設定:在表結構設計中,需要設定字段和對應的資料類型。字段的設定需考慮資料的類型、長度、是否允許為空、是否唯一、是否自增等因素。在設計字段時需遵循最小化原則,避免不必要的字段,以減輕資料庫處理壓力。
- 主鍵、唯一鍵、索引等設定:通過索引可以提高查詢的效率,是以在資料入庫時應該考慮添加索引。一般而言,需要給表中的字段設定主鍵、唯一鍵和普通索引等,以優化資料的查詢性能。
- 表的級聯關系:在設計表結構時,需要考慮多表之間的關系。比如,是采用多個獨立的表,還是将其合并為一個複雜的表。還需考慮多表之間的級聯關系,以確定資料的一緻性。
- 設定資料表的字元集和排序規則:在MySQL表的結構設計中,還需考慮字元集和排序規則的設定。要根據實際情況,選擇合适的字元集和排序規則,以避免資料存儲時出現亂碼或者排序問題。
2.MySQL資料寫入規範
MySQL資料寫入規範是進行資料入庫時需要考慮的一個重要問題。一個良好的資料寫入規範可以保證資料的準确性和一緻性,確定資料在資料庫中的正确存儲。以下是PC端爬蟲工程師需要遵循的MySQL資料寫入規範:
- 字段值格式與表結構比對:在進行資料寫入時,需要確定字段值的格式與表結構比對。即使資料庫允許資料随意寫入,也應該遵循表結構設計的原則,将資料寫入到正确的字段中。
- 資料的完整性:在進行資料寫入時,需要確定資料的完整性。應盡量避免資料缺失、重複或者錯誤等問題,以免對後續分析和應用造成影響。
- 資料的規範化:對于涉及字元串、日期等資料類型的字段,需要考慮到資料的規範化。比如,對于日期資料,應統一使用一種日期格式,并避免使用預設格式等導緻的問題。
- 事務管理:在進行資料寫入時,應盡量使用事務來確定資料的一緻性。比如,在寫入多條記錄時,可以将它們一起寫入到資料庫中,并在最後再統一送出,以確定資料在寫入的過程中保持一緻性。
- 避免超限資料的寫入:在進行資料寫入時,應嚴格避免超限資料的寫入,例如資料長度超出字段長度等問題。如果資料超限,會導緻資料丢失或者資料庫撐爆等問題。
3.MySQL動态傳參
MySQL動态傳參是進行資料入庫時經常用到的一種技巧。通過動态傳參,可以有效地提高MySQL資料庫寫入的效率,減少程式代碼的備援,優化資料入庫過程。以下是幾種常用的MySQL動态傳參方式:
使用Python的字元串格式化方法進行動态傳參:可以使用Python的字元串的format方法進行MySQL參數的傳遞。在進行資料寫入操作時,可以将MySQL語句和Python字典或元組進行結合,實作動态傳參的效果。例如:
import MySQLdb
# 定義資料表名
table_name = "student"
# 定義學生資訊
student_info = {
"name": "Tom",
"age": 18,
"grade": "A"
}
# 動态傳參
sql = "INSERT INTO {table_name} (name, age, grade) VALUES ('{name}', {age}, '{grade}')".format(
table_name=table_name,
name=student_info['name'],
age=student_info['age'],
grade=student_info['grade']
)
# 連接配接資料庫
conn = MySQLdb.connect('localhost', 'username', 'password', 'database_name')
# 擷取遊标對象
cursor = conn.cursor()
# 執行操作
cursor.execute(sql)
# 送出事務
conn.commit()
# 關閉遊标和連接配接
cursor.close()
conn.close()
使用MySQLdb子產品的execute方法進行動态傳參:使用MySQLdb的execute方法進行動态傳參,隻需要在SQL語句中使用占位符%s,然後在執行execute方法時傳遞參數清單即可。例如:
import MySQLdb
# 定義資料表名
table_name = "student"
# 定義學生資訊
student_info = {
"name": "Tom",
"age": 18,
"grade": "A"
}
# 動态傳參
sql = "INSERT INTO {table_name} (name, age, grade) VALUES (%s, %s, %s)".format(
table_name=table_name
)
# 連接配接資料庫
conn = MySQLdb.connect('localhost', 'username', 'password', 'database_name')
# 擷取遊标對象
cursor = conn.cursor()
# 執行操作
cursor.execute(sql, (student_info['name'], student_info['age'], student_info['grade']))
# 送出事務
conn.commit()
# 關閉遊标和連接配接
cursor.close()
conn.close()
總之,MySQL動态傳參是進行資料入庫時經常使用的一種技巧。PC端爬蟲工程師掌握MySQL動态傳參的使用方法,可以對SQL語句進行動态的參數傳遞,進而提高資料庫寫入的效率、減少代碼備援。在進行資料入庫時,建議使用MySQL動态傳參技巧,以提高資料的寫入效率和準确性。
4.MySQL對接爬蟲實戰
在進行爬蟲資料采集和入庫時,MySQL是一個常用的關系型資料庫管理系統,其穩定性和可靠性被廣泛認可。以下是PC端爬蟲工程師可以按照的步驟,将爬蟲采集資料寫入到MySQL資料庫中:
- 建立MySQL資料庫表結構:在MySQL資料庫中建立一個資料表,該表的表結構應根據資料的類型和存儲需求進行設計。在表結構設計時需要考慮字段設定、主鍵、唯一鍵、索引等因素。
- 使用Python中的爬蟲架構進行資料采集:使用Python中的Scrapy或者BeautifulSoup等常用的PC端爬蟲架構進行資料采集,将采集到的資料存儲在Python的變量中。
- 連接配接MySQL資料庫:使用Python的MySQLdb或pymysql等第三方庫連接配接MySQL資料庫,并進行相應的參數配置。
- 實作資料寫入操作:使用Python的cursor對象,通過sql語句将資料插入到MySQL資料庫中。在插入資料時,需要遵循MySQL資料庫的資料寫入規範,保證資料的完整性、一緻性和安全性。如果需要動态傳參,在插入資料時還需要用到字元串格式化方法或者MySQLdb的execute方法進行動态傳參。
- 關閉資料庫連接配接:當完成資料入庫操作後,應及時關閉資料庫連接配接,以釋放資源。
下面是一個将采集到的資料寫入MySQL資料庫的示例代碼:
import MySQLdb
# 連接配接MySQL資料庫
conn = MySQLdb.connect('localhost', 'username', 'password', 'database_name')
# 擷取遊标對象
cursor = conn.cursor()
# 采集到的資料
book = {'name': 'Python入門精通', 'author': '張三', 'price': 28}
# 資料庫寫入操作
sql = "INSERT INTO books (name, author, price) VALUES ('%s', '%s', %f)" % (book['name'], book['author'], book['price'])
try:
# 執行SQL語句
cursor.execute(sql)
# 送出事務
conn.commit()
except Exception as e:
# 發生異常時復原
print(str(e))
conn.rollback()
# 關閉遊标和連接配接
cursor.close()
conn.close()
将爬蟲采集的資料寫入MySQL資料庫是PC端爬蟲工程師需要掌握的重要技能之一。需要合理設計資料表結構,使用Python的爬蟲架構進行資料采集,正确連接配接MySQL資料庫,遵循MySQL的資料寫入規範進行資料寫入操作,并嚴格保障資料的完整性和一緻性。
二丶MongoDB
除了關系型資料庫MySQL,另一種非常流行的資料庫是NoSQL資料庫MongoDB。相比于MySQL,MongoDB具備更好的可擴充性和更友善的資料處理方式,是現代Web應用程式的熱門選擇。以下是将爬蟲采集資料寫入MongoDB資料庫的步驟:
- 安裝MongoDB資料庫:在開始使用MongoDB資料庫之前,需要安裝MongoDB以及相應的Python驅動程式pymongo。MongoDB官網提供了各種安裝方式和文檔。
- 連接配接MongoDB資料庫:使用pymongo庫連接配接MongoDB資料庫,并進行相應的參數配置。MongoDB需要指定資料庫所在伺服器位址、端口号、資料庫名稱等連接配接資訊。
- 建立MongoDB資料庫和集合:MongoDB是面向文檔的資料庫,不需要像MySQL一樣設計表結構,而是直接存儲JSON格式的文檔。可以首先建立MongoDB資料庫和集合,然後在代碼中直接插入文檔。使用pymongo庫提供的MongoClient對象可以連接配接MongoDB資料庫,并使用相應的方法建立資料庫和集合等。
- 實作資料寫入操作:使用pymongo庫提供的insert_one或insert_many等方法将Python變量中的資料插入到MongoDB中。在插入資料時,需要遵循MongoDB的資料寫入規範,保證資料的完整性、一緻性和安全性。如果需要動态傳參,在插入資料時還需要用到Python格式化字元串或bson子產品的tobson方法。
- 關閉資料庫連接配接:當完成資料入庫操作後,應及時關閉資料庫連接配接,以釋放資源。
下面是一個将采集到的資料寫入MongoDB資料庫的示例代碼:
import pymongo
import json
# 連接配接MongoDB資料庫
client = pymongo.MongoClient(host='localhost', port=27017)
# 建立MongoDB資料庫和集合
db = client['bookstore']
collection = db['books']
# 采集到的資料
book = {'name': 'Python入門精通', 'author': '張三', 'price': 28}
# 資料庫寫入操作
try:
# 将Python字典轉換為MongoDB的文檔格式
doc = json.loads(json.dumps(book))
# 插入文檔到MongoDB
collection.insert_one(doc)
except Exception as e:
print(str(e))
# 關閉MongoDB連接配接
client.close()
将爬蟲采集的資料寫入MongoDB資料庫是PC端爬蟲工程師需要掌握的另一個重要技能。需要首先安裝MongoDB資料庫和Python驅動程式pymongo,然後使用pymongo庫連接配接MongoDB資料庫,建立資料庫和集合,使用insert_one和insert_many等方法将資料插入到MongoDB中。同時也需要遵循MongoDB的資料寫入規範,保障資料的完整性和一緻性。
1.MongoDB資料寫入規範
MongoDB是一種非關系型資料庫,相對于傳統關系型資料庫MySQL,它有許多的特性和優勢,但是在使用時需要遵守一定的資料寫入規範,以保證資料的安全性和一緻性。下面是在将資料寫入MongoDB時需要遵守的規範:
- 字段命名規範:MongoDB支援使用Unicode字元集中的所有字元作為字段名稱,但是不推薦使用除字母數字和下劃線以外的特殊字元,且建議使用小寫字母。字段名稱不能為空字元串,并且不能以$開頭。
- 資料格式規範:在将資料寫入MongoDB中時,需要保證文檔中每個字段的資料類型和資料格式的一緻性。如果想要将Python中的資料寫入MongoDB,可以先将Python中的資料格式化為JSON字元串或字典,然後再将其轉換為MongoDB文檔格式。
- 文檔唯一性規範:MongoDB中的每個文檔都應該具有唯一的_id字段。如果在寫入文檔時沒有指定_id字段,則MongoDB會為每個文檔自動生成一個ObjectId類型的_id字段。
- 資料寫入确認規範:當使用MongoDB寫入資料時,應該使用寫入确認來確定資料已經成功寫入資料庫。MongoDB提供了四種寫入确認級别,分别為:未确認寫入、确認主節點寫入、确認大多數節點寫入和确認所有節點寫入。
- 資料更新規範:在更新MongoDB中的文檔時,可以使用update方法進行更新。使用update方法時,需要指定更新的文檔、更新的方式和更新的條件。如果不指定更新條件,則預設會更新所有符合條件的文檔。更新操作還可以将某個字段的值進行遞增或遞減操作。
- 資料删除規範:在MongoDB中删除文檔時,可以使用remove方法進行删除。使用remove方法時,需要指定删除的文檔和删除的條件。如果不指定條件,則預設會删除所有文檔。
在将資料寫入MongoDB中時,需要遵守一定的規範,以保證資料的安全性和一緻性。需要注意字段命名規範、資料格式規範、文檔唯一性規範、資料寫入确認規範、資料更新規範和資料删除規範。
2.MongoDB資料異常處理
在進行資料入庫到MongoDB的過程中,可能會遇到一些異常情況,例如寫入資料失敗、查詢資料出錯等等。為了保證資料的完整性和正确性,需要進行一些異常處理。
以下是在使用MongoDB進行資料入庫時,可能會遇到的異常情況及相應的處理方法:
- 寫入資料失敗:在将資料寫入MongoDB的過程中,可能會由于網絡問題、資料庫連接配接失敗或者其他原因導緻寫入失敗。此時,需要進行重試操作,并且可以使用MongoDB提供的異常處理機制來捕獲異常,并進行相應的處理。
- 查詢資料出錯:在查詢MongoDB中的文檔時,可能會由于查詢條件錯誤、查詢字段不存在或其他原因導緻查詢出錯。此時,可以使用MongoDB提供的異常處理機制來捕獲異常,并進行相應的處理。
- 資料庫連接配接失敗:在連接配接MongoDB資料庫時,可能會由于網絡問題、資料庫服務未啟動或其他原因導緻連接配接失敗。此時,需要檢查資料庫服務是否正常運作,并重新連接配接資料庫。
- 資料庫連接配接斷開:在MongoDB與用戶端進行通信時,可能會由于網絡問題或者其他原因導緻連接配接斷開。此時,需要重新連接配接MongoDB資料庫,并處理異常情況。
- 資料庫寫鎖:在進行寫入操作時,可能會由于另一個線程正在寫入同一個文檔而出現寫入鎖。此時,需要等待寫入鎖釋放,然後再進行操作。
- 資料庫讀鎖:在進行讀取操作時,可能會由于另一個線程正在更新同一個文檔而出現讀取鎖。此時,可以選擇等待讀取鎖釋放,或者強制擷取讀取鎖進行讀取操作。
在進行資料入庫到MongoDB的過程中,可能會遇到各種異常情況,需要注意異常處理,以保證資料的完整性和正确性。需要使用MongoDB提供的異常處理機制,對可能出現的異常進行捕獲,并進行相應的處理。此外,還需要注意在進行寫入操作時可能出現的寫鎖,以及在進行讀取操作時可能出現的讀鎖。
3.爬蟲對接MongoDB實戰操作
在進行爬蟲資料采集時,将采集到的資料存儲到MongoDB資料庫中是一個比較常見的操作。下面簡單介紹一下如何使用Python爬蟲程式對接MongoDB資料庫進行實戰操作。
- 安裝MongoDB驅動程式:Python爬蟲程式可以使用第三方庫–pymongo–來操作MongoDB資料庫。首先需要安裝pymongo庫,可以使用pip指令進行安裝:
pip install pymongo
- 連接配接MongoDB資料庫:使用pymongo庫連接配接MongoDB資料庫非常簡單。需要指定MongoDB伺服器的IP位址及端口号,同時指定要使用的資料庫名稱和集合名稱。示例代碼如下:
import pymongo
# 連接配接MongoDB伺服器
client = pymongo.MongoClient("mongodb://localhost:27017/")
# 選擇資料庫和集合
db = client["testdb"]
col = db["testcol"]
在實際操作中,可以根據需要自己定義資料庫和集合的名稱。
- 插入資料到MongoDB:将爬蟲采集到的資料插入到MongoDB中,需要使用pymongo庫提供的insert_one()或insert_many()方法。如果要插入多條資料,可以使用insert_many()方法。示例代碼如下:
import pymongo
# 連接配接MongoDB伺服器
client = pymongo.MongoClient("mongodb://localhost:27017/")
# 選擇資料庫和集合
db = client["testdb"]
col = db["testcol"]
# 插入一條資料
data = {"title": "Python程式設計", "price": 88.8}
col.insert_one(data)
# 插入多條資料
datas = [
{"title": "Java程式設計", "price": 99.9},
{"title": "C++程式設計", "price": 79.9},
{"title": "PHP程式設計", "price": 69.9},
]
col.insert_many(datas)
- 查詢資料:查詢MongoDB資料庫中的資料,需要使用pymongo庫提供的find()方法。可以根據需要指定查詢條件和查詢字段。示例代碼如下:
import pymongo
# 連接配接MongoDB伺服器
client = pymongo.MongoClient("mongodb://localhost:27017/")
# 選擇資料庫和集合
db = client["testdb"]
col = db["testcol"]
# 查詢資料
data = col.find_one({"title": "Python程式設計"})
print(data)
for data in col.find():
print(data)
- 更新資料和删除資料:使用pymongo庫提供的update_one()、update_many()、delete_one()和delete_many()方法可以更新和删除MongoDB資料庫中的資料。
import pymongo
# 連接配接MongoDB伺服器
client = pymongo.MongoClient("mongodb://localhost:27017/")
# 選擇資料庫和集合
db = client["testdb"]
col = db["testcol"]
# 更新資料
query = {"title": "Python程式設計"}
new_data = {"$set": {"price": 99.99}}
result = col.update_one(query, new_data)
print(result.modified_count)
# 删除資料
query = {"title": "Python程式設計"}
result = col.delete_one(query)
print(result.deleted_count)
以上就是對接MongoDB資料庫的實戰操作。需要注意的是,MongoDB資料庫在進行大量寫入資料時,可能會遇到性能瓶頸問題,可以通過使用分片和索引等技術來提高MongoDB資料庫的性能。
三丶JSON
進行資料采集時,一種常見的資料存儲格式是JSON(JavaScript Object Notation)。JSON格式具有輕量級、結構化等優點,且易于使用和解析。下面介紹PC端爬蟲工程師采集資料後如何将資料存儲為JSON格式。
使用Python标準庫json将資料轉換為JSON格式
Python标準庫json提供了loads(),load(),dumps()和dump()四個函數用于JSON資料的解析和編碼。其中,dump()函數可以将Python對象直接序列化為JSON檔案,如下使用示例:
import json
data = {
"name": "Tom",
"age": 18,
"gender": "male"
}
with open("data.json", "w") as f:
json.dump(data, f)
使用Python第三方庫pandas将資料存儲為JSON格式
pandas是一種基于NumPy的資料分析工具,支援多種資料格式的解析、操作和存儲,其中就包括JSON格式。pandas提供了to_json()方法,可以将DataFrame對象、Series對象或Python字典對象存儲為JSON格式檔案。示例如下:
import pandas as pd
data = pd.DataFrame({
"name": ["Tom", "Jack", "Lucy"],
"age": [18, 19, 20],
"gender": ["male", "male", "female"]
})
data.to_json("data.json")
使用Python第三方庫scrapy将資料存儲為JSON格式
scrapy是一種廣泛應用于Web爬蟲資料采集的Python架構,它預設支援多種資料存儲方式,包括JSON格式。在使用scrapy架構進行資料采集時,可以将資料存儲為JSON格式,示例代碼如下:
import scrapy
class MySpider(scrapy.Spider):
name = "example.com"
start_urls = ["http://www.example.com"]
def parse(self, response):
# 爬蟲采集到的資料
data = {
"name": "Tom",
"age": 18,
"gender": "male"
}
# 将資料存儲為JSON格式
yield data
進行資料采集時,可以選擇将采集到的資料存儲為JSON格式。可以使用Python标準庫json、第三方庫pandas或爬蟲架構scrapy提供的方法将資料以JSON格式存儲起來,以達到友善解析和處理的效果。
1.JSON對象和數組
JSON對象
JSON對象是由花括号“{}”包圍的一組屬性-值對。屬性和值之間使用冒号“:”分隔,不同屬性之間使用逗号“,”分隔。一個JSON對象可以包含零到多個屬性-值對,示例如下:
{
"name": "Tom",
"age": 18,
"gender": "male",
"hobbies": ["reading", "traveling"]
}
其中,name、age、gender是屬性,對應的值分别是Tom、18、male;hobbies是一個數組,包含兩個元素reading和traveling。
JSON數組
JSON數組是由方括号“[]”包圍的一組值,不同值之間使用逗号“,”分隔。一個JSON數組可以包含零到多個值,示例如下:
[
{"name": "Tom", "age": 18, "gender": "male"},
{"name": "Jack", "age": 19, "gender": "male"},
{"name": "Lucy", "age": 20, "gender": "female"}
]
這是一個包含三個JSON對象的數組,每個對象都包括name、age、gender三個屬性,分别表示姓名、年齡、性别。
使用JSON對象和JSON數組可以靈活地組織和存儲資料。在進行資料采集和資料處理時,PC端爬蟲工程師需要了解和掌握這兩種JSON結構的相關知識,以便更好地将采集到的資料存儲為JSON格式,進行資料解析和處理等操作。 ###2.JSON資料編碼 進行資料采集和資料存儲時,需要将采集到的資料編碼為JSON格式,以便後續進行解析和處理等操作。在Python語言中,使用json子產品可以友善地進行JSON資料編碼。
具體操作如下:
導入json子產品:
import json
将Python資料類型轉換為JSON格式:
使用json.dump()方法,将Python資料類型(如字典、清單)轉換為JSON格式,并存儲到指定檔案中。文法如下:
json.dump(obj, fp, *, skipkeys=False, ensure_ascii=True, check_circular=True, allow_nan=True, cls=None, indent=None, separators=None, default=None, sort_keys=False, **kw)
其中,參數obj為Python資料類型,參數f為檔案路徑。
代碼示例:
import json
data = {"name": "Tom", "age": 18, "gender": "male"}
with open("data.json", "w") as f:
json.dump(data, f)
運作代碼後,會在目前工作目錄中生成一個data.json檔案,檔案内容為轉換後的JSON格式資料:
{"name": "Tom", "age": 18, "gender": "male"}
将Python資料類型轉換為JSON格式,傳回JSON字元串:
使用json.dumps()方法,将Python資料類型(如字典、清單)轉換為JSON格式,并傳回一個對應的JSON字元串。文法如下:
json.dumps(obj, *, skipkeys=False, ensure_ascii=True, check_circular=True, allow_nan=True, cls=None, indent=None, separators=None, default=None, sort_keys=False, **kw)
其中,參數obj為Python資料類型。
代碼示例:
import json
data = {"name": "Tom", "age": 18, "gender": "male"}
json_str = json.dumps(data)
print(json_str)
運作代碼後,控制台會輸出轉換後的JSON格式字元串:
{"name": "Tom", "age": 18, "gender": "male"}
可以根據實際情況選擇使用json.dump()或json.dumps()進行JSON資料編碼,以便将采集到的資料存儲為JSON格式,友善後續的資料處理和解析等操作。
python文檔+筆記+了解接單+源碼擷取方式
内容:
1.面試專題幾十個大廠面試題
2.入門基礎教程
3.11子產品零基礎到精通筆記
4.百個項目實戰+爬蟲教程+代碼
5.量化交易,機器學習,深度學習
6.Python遊戲源碼
7.交流學習
8.了解接單市場
9.DNF自動識别打怪
10.3263頁學習資料
#python打卡##python##每天學python##python程式設計小知識##python自學#