国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分布式數據恢復—Ceph+TiDB數據恢復報告

Frombyte ? 來源:Frombyte ? 作者:Frombyte ? 2026-02-03 17:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、Ceph故障表現
故障情況:客戶設備為Ceph分布式存儲系統,采用RBD(RADOS Block Device)作為塊存儲服務。Ceph集群由多個OSD(Object Storage Daemon)節點組成,數據通過CRUSH算法分布存儲在多個物理節點上。在系統運行過程中,由于誤操作執行了初始化重置命令,導致Ceph集群的元數據信息被重置,存儲池(Pool)配置丟失,RBD卷的映射關系被破壞,整個存儲系統中的數據無法正常訪問。目標需要恢復的RBD卷中存儲了一臺虛擬機的完整磁盤鏡像,該虛擬機內部運行TiDB分布式數據庫系統,包含重要的業務數據。
恢復概率預判:
由于是初始化重置操作導致的元數據丟失,底層物理數據塊可能仍然完整保留在OSD節點上。Ceph采用對象存儲架構,數據以對象形式存儲在OSD中,每個對象包含數據本身和元數據信息。如果底層物理存儲介質未發生物理損壞,通過底層掃描和元數據重建,理論上可以恢復RBD卷數據。恢復難度取決于Ceph版本、存儲池配置參數、對象大小設置等因素。由于Ceph分布式存儲的復雜性,需要深入分析CRUSH映射規則、PG(Placement Group)分布、對象存儲結構等,恢復工作可能會耗費較長時間。
虛擬機恢復后,還需要對TiDB數據庫進行解析,提取庫表記錄數據,整個恢復過程需要分階段進行。

二、Ceph存儲系統架構概述
Ceph是一個開源的分布式存儲系統,采用去中心化架構設計。核心組件包括:
1、MON(Monitor):負責維護集群狀態映射,包括OSD Map、PG Map、CRUSH Map等元數據信息。
2、OSD(Object Storage Daemon):負責實際的數據存儲,每個OSD管理本地存儲設備,將數據以對象形式存儲。
3、MDS(Metadata Server):用于CephFS文件系統,RBD場景下不涉及。
4、RBD(RADOS Block Device):提供塊設備接口,將RADOS對象組合成連續的塊設備。

Ceph數據存儲機制:
- 數據寫入時,通過CRUSH算法計算數據應該存儲在哪些OSD上,實現數據的均勻分布。
- 每個RBD鏡像被切分成多個對象(Object),對象大小通常為4MB,可通過參數調整。
- 對象通過PG(Placement Group)進行管理,PG是邏輯概念,用于數據分布和副本管理。
- 每個PG根據副本數(通常為3副本)將數據分布到不同的OSD上。

RBD卷結構:
- RBD卷的元數據信息存儲在RADOS對象中,包括卷的大小、格式版本、特性標志等。
- RBD卷的數據對象命名規則遵循特定模式,可通過對象名稱模式識別和重組。

三、Ceph恢復過程
1、環境準備與數據備份
A、確認Ceph集群狀態,停止所有可能對存儲進行寫入的操作,避免數據被覆蓋。
B、識別Ceph集群中的所有OSD節點,記錄每個節點的物理位置、存儲設備信息、OSD編號等。
C、北亞企安數據恢復工程師對每個OSD節點上的存儲設備進行只讀模式掛載或底層鏡像備份,確保原始數據安全。
D、備份Ceph集群的配置文件,包括ceph.conf、CRUSH Map等,用于后續分析參考。
E、記錄Ceph集群的版本信息、存儲池配置參數(如pg_num、pgp_num、副本數等),這些信息對恢復至關重要。

wKgZPGmBvaOAETNVAAFg0vWOiGc922.png北亞企安數據恢復—Ceph數據恢復

2、Ceph元數據分析與重建
A、北亞企安數據恢復工程師分析Ceph Monitor節點上的日志和狀態信息,嘗試提取部分元數據信息。
B、分析CRUSH Map結構,了解數據分布規則,包括故障域設置、權重分配等。
C、根據已知的存儲池配置信息,重建PG到OSD的映射關系。
D、分析OSD節點上的對象存儲結構,識別對象命名規則和存儲格式。
E、通過掃描OSD節點,查找可能保留的元數據對象,嘗試重建部分元數據信息。

wKgZPGmBvaOAETNVAAFg0vWOiGc922.png北亞企安數據恢復—Ceph數據恢復 wKgZPGmBvaOAOI3FAAHcA49Adqs250.png北亞企安數據恢復—Ceph數據恢復


3、RBD卷識別與定位
A、根據用戶方提供的RBD卷名稱、大小等信息,北亞企安數據恢復工程師在OSD節點上搜索相關的元數據對象。
B、分析RBD卷的對象命名模式,RBD對象通常以特定前綴命名,如rbd_data、rbd_header等。
C、通過掃描所有OSD節點,查找符合RBD卷特征的對象集合。
D、根據對象的時間戳、大小分布等特征,識別目標RBD卷的數據對象。
E、驗證識別出的對象集合的完整性,確認是否包含完整的RBD卷數據。

wKgZO2mBvbqAL32BAAOl6sCStI4624.png北亞企安數據恢復—Ceph數據恢復


4、RBD卷數據重組
A、根據RBD卷的元數據信息,確定卷的大小、對象大小、對象數量等參數。
B、按照RBD對象編號順序,將分散在多個OSD上的對象數據進行重組。
C、處理可能的對象缺失情況,如果存在副本,嘗試從其他OSD節點恢復缺失對象。
D、重組RBD卷的頭部元數據對象,包含卷的配置信息和快照信息。
E、將重組后的RBD卷數據導出為原始鏡像文件,進行完整性校驗。

wKgZPGmBvceAW6doAABi673U-7A612.png北亞企安數據恢復—Ceph數據恢復 wKgZO2mBvcaACXjcAAG3mBYN48Q503.png北亞企安數據恢復—Ceph數據恢復


5、OCFS2文件系統解析與虛擬機磁盤鏡像導出
A、對恢復出的RBD卷鏡像文件進行文件系統類型識別,確認鏡像文件內部使用OCFS2(Oracle Cluster File System 2)文件系統。
B、OCFS2是專為集群環境設計的高性能文件系統,支持多節點并發訪問,具有日志記錄、擴展屬性、配額管理等特性。分析OCFS2文件系統的超級塊結構,獲取文件系統的基本參數信息,包括塊大小、集群大小、節點數量等。
C、解析OCFS2文件系統的目錄結構,OCFS2采用B+樹結構管理目錄項,需要解析目錄索引節點和目錄項信息。
D、解析OCFS2文件系統的文件分配機制,OCFS2使用擴展分配(Extent Allocation)方式管理文件數據塊,需要解析擴展樹結構定位文件數據。
E、讀取OCFS2文件系統中的虛擬機磁盤鏡像文件,OCFS2文件系統可能包含多個文件,需要識別目標虛擬機磁盤鏡像文件(可能是qcow2、raw等格式)。
F、北亞企安數據恢復工程師對OCFS2文件系統進行完整性校驗,檢查文件系統日志的一致性,修復可能存在的元數據錯誤。
G、從OCFS2文件系統中導出虛擬機磁盤鏡像文件,確保導出的鏡像文件完整且可正常訪問。
H、驗證導出的虛擬機磁盤鏡像文件的完整性,確認鏡像文件格式和大小符合預期。

wKgZPGmBvc6AakqeAARHZ8oW5rw387.png北亞企安數據恢復—Ceph數據恢復


6、XFS文件系統解析與TiDB數據庫文件提取
A、北亞企安數據恢復工程師對導出的虛擬機磁盤鏡像進行分區識別,確定虛擬機磁盤的分區布局和文件系統類型。
B、確認虛擬機磁盤鏡像中使用XFS文件系統,XFS是高性能日志文件系統,具有優秀的擴展性和并發性能,適合存儲大型文件。
C、分析XFS文件系統的超級塊結構,獲取文件系統的基本參數,包括塊大小、分配組(AG)數量、日志大小等。XFS采用分配組(Allocation Group)機制,將文件系統劃分為多個獨立的分配組,每個分配組管理自己的inode和數據塊。
D、解析XFS文件系統的目錄結構,XFS使用B+樹結構管理目錄,需要解析目錄塊和目錄項信息,定位TiDB相關的數據目錄。
E、解析XFS文件系統的inode結構,XFS的inode包含文件的元數據信息,如文件大小、權限、時間戳等,以及指向數據塊的指針。
F、解析XFS文件系統的擴展分配機制,XFS使用擴展(Extent)方式管理文件數據,通過擴展樹(B+樹)快速定位文件數據塊位置。
G、在XFS文件系統中定位TiDB相關的數據目錄,通常包括TiDB Server、TiKV、PD等組件的配置目錄和數據目錄。
H、提取TiDB數據庫相關的所有文件,包括TiKV的數據文件(RocksDB格式的SST文件、WAL日志等)、PD的元數據文件、TiDB的配置文件等。
I、北亞企安數據恢復工程師對提取的TiDB數據庫文件進行完整性校驗,檢查文件大小、文件頭信息等,確認文件是否完整。
J、嘗試將TiDB數據庫文件導入測試環境中,驗證數據庫文件是否可以正常使用。經校驗北亞企安數據恢復工程師發現TiDB數據庫文件存在損壞,無法通過正常方式啟動和使用,需要進入下一步進行底層數據解析和記錄抽取。

wKgZPGmBvdeAGlamAAHFhs6TN68308.png北亞企安數據恢復—Ceph數據恢復


7、TiDB數據庫架構分析
TiDB是分布式關系型數據庫,采用計算存儲分離架構:
- TiDB Server:負責SQL解析、查詢優化、事務處理等計算層功能。
- TiKV:分布式鍵值存儲引擎,負責數據存儲,采用Raft協議保證一致性。
- PD(Placement Driver):集群管理組件,負責元數據管理、調度、時間戳分配等。

TiDB數據存儲機制:
- 數據以Region為單位進行分片存儲,每個Region包含一定范圍的鍵值數據。
- 數據以Key-Value形式存儲在TiKV中,Key包含表ID、行ID等信息。
- 元數據信息存儲在PD中,包括表結構、索引信息、Region分布等。
- TiDB支持MVCC(多版本并發控制),數據可能包含多個版本。

8、TiDB數據文件識別
A、在虛擬機文件系統中定位TiDB相關的數據目錄,通常包括TiDB、TiKV、PD的數據目錄。
B、識別TiDB的數據文件格式,TiKV數據以RocksDB格式存儲,包含SST文件、WAL日志等。
C、分析PD的元數據存儲,PD通常使用etcd存儲元數據信息。
D、識別TiDB的配置文件,了解集群配置、數據目錄路徑、端口信息等。
E、收集TiDB的日志文件,分析數據庫運行狀態和可能的錯誤信息。

9、TiDB數據庫解析
A、分析TiDB的數據文件結構,理解RocksDB的存儲格式和鍵值編碼規則。
B、解析PD的元數據信息,重建數據庫的元數據,包括數據庫列表、表結構、索引定義等。
C、解析TiKV的Region數據,識別每個Region的鍵值范圍和數據內容。
D、根據TiDB的編碼規則,將鍵值數據解析為表記錄格式,包括行數據、列數據等。
E、處理TiDB的MVCC版本信息,提取最新版本的數據記錄。

wKgZO2mBveOAX_tpAADSXWDJvjs774.png北亞企安數據恢復—Ceph數據恢復 wKgZO2mBveOAUFdZAAC0jtllgVY389.png北亞企安數據恢復—Ceph數據恢復


10、TiDB庫表數據提取
A、根據解析出的元數據信息,列出所有數據庫和表的結構定義。
B、對每個表的數據進行解析,按照表結構定義將鍵值數據轉換為行記錄。
C、處理表的主鍵、唯一索引等約束信息,確保數據完整性。
D、提取表的列數據,包括各種數據類型(整數、字符串、時間、二進制等)的正確解析。
E、處理大對象數據(如BLOB、TEXT類型),確保完整提取。

11、數據導出與驗證
A、將解析出的TiDB數據導出為標準SQL格式或CSV格式,便于后續導入。
B、按照數據庫、表的層次結構組織導出數據,保持數據的邏輯關系。
C、對導出的數據進行完整性校驗,包括記錄數量、數據類型、約束檢查等。
D、生成數據恢復報告,詳細記錄恢復的數據量、表數量、可能的數據缺失情況等。
E、提供數據導入腳本或工具,協助客戶將恢復的數據導入到新的TiDB集群中。

wKgZO2mBve-AJOHgAALZafazeN4258.png北亞企安數據恢復—Ceph數據恢復



12、數據驗證
A、由用戶主導對恢復的虛擬機數據進行詳細驗證,確認虛擬機可以正常啟動。
B、驗證TiDB數據庫數據的完整性和正確性,包括表結構、記錄數量、數據內容等。
C、對關鍵業務數據進行抽樣驗證,確保數據的準確性和一致性。
D、若驗證有問題,則重復上述相關操作步驟,進行補充恢復。
E、提供數據恢復的詳細文檔和技術支持,協助客戶完成數據遷移和系統重建。

四、Ceph恢復結果
Ceph分布式存儲系統重置后,所有數據丟失,但元信息并沒有被徹底清除,可以通過掃描元信息找回丟失的數據。但由于系統沒有第一時間停機,包括還可能存在的緩沖寫入,導致還是有部分元信息徹底丟失或數據被破壞,恢復出的數據并不是完全正確可用的,因此還需要對其中的TiDB進行解析,提取數據庫表記錄。
北亞企安數據恢復工程師通過結合TiDB中的SST類型的靜態數據文件和raftlog同步日志,對數據文件和日志文件中的數據進行解析合并,成功恢復出了95%以上的數據。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據恢復
    +關注

    關注

    10

    文章

    712

    瀏覽量

    18983
  • 分布式
    +關注

    關注

    1

    文章

    1093

    瀏覽量

    76579
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    TiDB分布式數據庫運維實踐

    TiDB 是 PingCAP 開發的開源分布式關系型數據庫,兼容 MySQL 5.7 協議,底層存儲基于 TiKV(分布式 KV 存儲)和 RocksDB。它解決的核心問題是:當單機
    的頭像 發表于 03-04 15:44 ?70次閱讀

    Oracle數據庫ASM實例無法掛載的數據恢復案例

    一個Oracle數據庫故障表現為ASM磁盤組掉線,ASM實例無法掛載(mount)。數據庫管理員自行進行簡單修復,未能成功,隨后聯系北亞數據恢復中心
    的頭像 發表于 02-24 15:19 ?73次閱讀
    Oracle<b class='flag-5'>數據</b>庫ASM實例無法掛載的<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>案例

    【服務器數據恢復】服務器“泡水”硬盤掉線,數據竟這樣恢復

    北亞企安數據恢復中心的服務器數據恢復工程師和硬件工程師到現場處理故障。服務器數據恢復工程師到達現
    的頭像 發表于 01-22 17:38 ?1032次閱讀
    【服務器<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>】服務器“泡水”硬盤掉線,<b class='flag-5'>數據</b>竟這樣<b class='flag-5'>恢復</b>

    服務器數據恢復—一文讀懂服務器高頻故障排查+標準數據恢復流程

    服務器數據恢復到底是一個什么樣的流程? 服務器數據丟失后,進行數據恢復前應該做哪些準備? 服務器出現故障后應該如何操作才能避免
    的頭像 發表于 01-08 11:11 ?316次閱讀

    vsan數據恢復—VSAN超融合架構:供電異常的vsan數據恢復案例

    Vsan是一種可擴展的分布式存儲架構,這種存儲架構區別于其他存儲架構的地方在于由vsan進行管理和控制的vsan存儲層。另外vsan分布式存儲還提供有安全容災機制,如果單臺主機故障不會影響整個存儲,所以一旦vsan存儲故障數據
    的頭像 發表于 12-04 16:17 ?688次閱讀

    Netapp數據恢復—Netapp存儲數據恢復揭秘

    某公司一臺服務器中一共有72塊SAS硬盤。 工作人員誤操作刪除了十幾個lun。需要恢復服務器中的數據
    的頭像 發表于 10-28 15:26 ?406次閱讀
    Netapp<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>—Netapp存儲<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>揭秘

    服務器數據恢復—EqualLogic存儲上raid5磁盤陣列數據恢復案例

    服務器存儲數據恢復環境&故障: 某品牌EqualLogic PS6100存儲陣列上有一組由16塊硬盤組建的raid5磁盤陣列。磁盤陣列上層劃分多個大小不同的卷,存放虛擬機文件。 硬盤出現故障導致存儲陣列不可用,需要恢復存儲陣
    的頭像 發表于 10-21 15:04 ?335次閱讀

    數據數據恢復—服務器異常斷電導致Oracle數據庫故障的數據恢復案例

    Oracle數據庫故障: 某公司一臺服務器上部署Oracle數據庫。服務器意外斷電導致數據庫報錯,報錯內容為“system01.dbf需要更多的恢復來保持一致性”。該Oracle
    的頭像 發表于 07-24 11:12 ?639次閱讀
    <b class='flag-5'>數據</b>庫<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>—服務器異常斷電導致Oracle<b class='flag-5'>數據</b>庫故障的<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>案例

    Ceph分布式存儲系統解析

    在當今數據爆炸的時代,企業對存儲系統的需求日益增長,傳統的集中式存儲已經無法滿足大規模數據處理的要求。分布式存儲系統應運而生,而Ceph作為開源分布
    的頭像 發表于 07-14 11:15 ?996次閱讀

    vsan數據恢復—vsan分布式服務器節點上raid數據恢復案例

    4臺服務器基于vsan分布式架構的組建一個集群。每臺節點服務器上有2組由6塊硬盤組建的raid磁盤陣列,上層存放虛擬機文件。 某一個服務器節點上有一塊硬盤離線,vsan的數據安全機制啟動,開始重構
    的頭像 發表于 06-18 12:29 ?561次閱讀

    oracle數據恢復—oracle數據庫誤執行錯誤truncate命令如何恢復數據

    oracle數據庫誤執行truncate命令導致數據丟失是一種常見情況。通常情況下,oracle數據庫誤操作刪除數據只需要通過備份恢復數據
    的頭像 發表于 06-05 16:01 ?1072次閱讀
    oracle<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>—oracle<b class='flag-5'>數據</b>庫誤執行錯誤truncate命令如何<b class='flag-5'>恢復數據</b>?

    Vsan數據恢復——Vsan分布式文件系統上虛擬機不可用的數據恢復

    一臺采用VsSAN分布式文件系統的存儲設備由于未知原因關機重啟。管理員發現上層的虛擬機不可用,存儲內的數據丟失。
    的頭像 發表于 05-15 17:42 ?572次閱讀
    Vsan<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>——Vsan<b class='flag-5'>分布式</b>文件系統上虛擬機不可用的<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>

    分布式存儲數據恢復—虛擬機上hbase和hive數據數據恢復案例

    分布式存儲數據恢復環境: 16臺某品牌R730xd服務器節點,每臺服務器節點上有數臺虛擬機。 虛擬機上部署Hbase和Hive數據庫。
    的頭像 發表于 04-17 11:05 ?719次閱讀

    分布式dtu和分散dtu說明介紹

    分布式dtu和分散dtu有保護測控單元和綜合通訊單元組成,自愈采用基于通用面向對象變電站事件(GOOSE)的高速網絡通信方 ,利用配電網中相鄰開關的故障信息,快速定位故障位置并自動隔離故障,使無故障區域能夠
    的頭像 發表于 03-19 22:25 ?3361次閱讀
    <b class='flag-5'>分布式</b>dtu和分散<b class='flag-5'>式</b>dtu說明介紹

    虛擬化數據恢復—VMware虛擬化環境下重裝系統導致服務器數據丟失的數據恢復

    VMware虛擬化平臺 vmfs文件系統 工作人員誤操作重裝操作系統,服務器崩潰。 重裝系統會導致文件系統元文件被覆蓋。要恢復數據,必須找到&提取重裝系統前的文件系統殘留信息,通過提取出來的元文件信息恢復虛擬磁盤。通過拼接虛擬磁盤來
    的頭像 發表于 03-13 10:33 ?782次閱讀
    虛擬化<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>—VMware虛擬化環境下重裝系統導致服務器<b class='flag-5'>數據</b>丟失的<b class='flag-5'>數據</b><b class='flag-5'>恢復</b>