国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用 Python 實現一個大數據搜索引擎

馬哥Linux運維 ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-06 17:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

搜索是大數據領域里常見的需求。Splunk和ELK分別是該領域在非開源和開源領域里的領導者。本文利用很少的Python代碼實現了一個基本的數據搜索功能,試圖讓大家理解大數據搜索的基本原理。

布隆過濾器 (Bloom Filter)

第一步我們先要實現一個布隆過濾器。

布隆過濾器是大數據領域的一個常見算法,它的目的是過濾掉那些不是目標的元素。也就是說如果一個要搜索的詞并不存在與我的數據中,那么它可以以很快的速度返回目標不存在。

讓我們看看以下布隆過濾器的代碼:

classBloomfilter(object):

A Bloom filter is a probabilistic data-structure that trades space for accuracy

when determining if a value is in a set.It can tell you if a value was possibly

added, or if it was definitely not added, but it can't tell you for certain that

it was added.

"""

def __init__(self,size):

"""Setup the BF with the appropriate size"""

self.values = [False] * size

self.size = size

def hash_value(self,value):

"""Hash the value provided and scale it to fit the BF size"""

returnhash(value) % self.size

def add_value(self,value):

"""Add a value to the BF"""

h = self.hash_value(value)

self.values[h] = True

def might_contain(self,value):

"""Check if the value might be in the BF"""

h = self.hash_value(value)

returnself.values[h]

def print_contents(self):

"""Dump the contents of the BF for debugging purposes"""

print self.values

基本的數據結構是個數組(實際上是個位圖,用1/0來記錄數據是否存在),初始化是沒有任何內容,所以全部置False。實際的使用當中,該數組的長度是非常大的,以保證效率。

利用哈希算法來決定數據應該存在哪一位,也就是數組的索引

當一個數據被加入到布隆過濾器的時候,計算它的哈希值然后把相應的位置為True

當檢查一個數據是否已經存在或者說被索引過的時候,只要檢查對應的哈希值所在的位的True/Fasle

看到這里,大家應該可以看出,如果布隆過濾器返回False,那么數據一定是沒有索引過的,然而如果返回True,那也不能說數據一定就已經被索引過。在搜索過程中使用布隆過濾器可以使得很多沒有命中的搜索提前返回來提高效率。

我們看看這段 code是如何運行的:

bf = Bloomfilter(10)

bf.add_value('dog')

bf.add_value('fish')

bf.add_value('cat')

bf.print_contents()

bf.add_value('bird')

bf.print_contents()

# Note: contents are unchanged after adding bird - it collides

forterm in['dog','fish','cat','bird','duck','emu']:

print'{}: {} {}'.format(term,bf.hash_value(term),bf.might_contain(term))

結果:

[False,False,False,False,True,True,False,False,False,True]

[False,False,False,False,True,True,False,False,False,True]

dog: 5True

fish: 4True

cat: 9True

bird: 9True

duck: 5True

emu: 8False

首先創建了一個容量為10的的布隆過濾器

然后分別加入 ‘dog’,‘fish’,‘cat’三個對象,這時的布隆過濾器的內容如下:

然后加入‘bird’對象,布隆過濾器的內容并沒有改變,因為‘bird’和‘fish’恰好擁有相同的哈希。

最后我們檢查一堆對象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已經被索引了。結果發現‘duck’返回True,2而‘emu’返回False。因為‘duck’的哈希恰好和‘dog’是一樣的。

分詞

下面一步我們要實現分詞。 分詞的目的是要把我們的文本數據分割成可搜索的最小單元,也就是詞。這里我們主要針對英語,因為中文的分詞涉及到自然語言處理,比較復雜,而英文基本只要用標點符號就好了。

下面我們看看分詞的代碼:

def major_segments(s):

"""

Perform major segmenting on a string.Split the string by all of the major

breaks, and return the set of everything found.The breaks in this implementation

are single characters, but in Splunk proper they can be multiple characters.

A set is used because ordering doesn't matter, and duplicates are bad.

"""

major_breaks = ' '

last = -1

results = set()

# enumerate() will give us (0, s[0]), (1, s[1]), ...

foridx,ch inenumerate(s):

ifch inmajor_breaks:

segment = s[last+1:idx]

results.add(segment)

last = idx

# The last character may not be a break so always capture

# the last segment (which may end up being "", but yolo)

segment = s[last+1:]

results.add(segment)

returnresults

主要分割

主要分割使用空格來分詞,實際的分詞邏輯中,還會有其它的分隔符。例如Splunk的缺省分割符包括以下這些,用戶也可以定義自己的分割符。

] < >( ) { } | ! ; , ‘ ” * s & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

def minor_segments(s):

"""

Perform minor segmenting on a string.This is like major

segmenting, except it also captures from the start of the

input to each break.

"""

minor_breaks = '_.'

last = -1

results = set()

foridx,ch inenumerate(s):

ifch inminor_breaks:

segment = s[last+1:idx]

results.add(segment)

segment = s[:idx]

results.add(segment)

last = idx

segment = s[last+1:]

results.add(segment)

results.add(s)

returnresults

次要分割

次要分割和主要分割的邏輯類似,只是還會把從開始部分到當前分割的結果加入。例如“1.2.3.4”的次要分割會有1,2,3,4,1.2,1.2.3

def segments(event):

"""Simple wrapper around major_segments / minor_segments"""

results = set()

formajor inmajor_segments(event):

forminor inminor_segments(major):

results.add(minor)

returnresults

分詞的邏輯就是對文本先進行主要分割,對每一個主要分割在進行次要分割。然后把所有分出來的詞返回。

我們看看這段 code是如何運行的:

forterm insegments('src_ip = 1.2.3.4'):

print term

src

1.2

1.2.3.4

src_ip

3

1

1.2.3

ip

2

=

4

搜索

好了,有個分詞和布隆過濾器這兩個利器的支撐后,我們就可以來實現搜索的功能了。

上代碼:

classSplunk(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search(self,term):

"""Search for a single term, and yield all the events that contain it"""

# In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)

ifnotself.bf.might_contain(term):

return

# In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx

ifterm notinself.terms:

return

forevent_id insorted(self.terms[term]):

yield self.events[event_id]

Splunk代表一個擁有搜索功能的索引集合

每一個集合中包含一個布隆過濾器,一個倒排詞表(字典),和一個存儲所有事件的數組

當一個事件被加入到索引的時候,會做以下的邏輯

為每一個事件生成一個unqie id,這里就是序號

對事件進行分詞,把每一個詞加入到倒排詞表,也就是每一個詞對應的事件的id的映射結構,注意,一個詞可能對應多個事件,所以倒排表的的值是一個Set。倒排表是絕大部分搜索引擎的核心功能。

當一個詞被搜索的時候,會做以下的邏輯

檢查布隆過濾器,如果為假,直接返回

檢查詞表,如果被搜索單詞不在詞表中,直接返回

在倒排表中找到所有對應的事件id,然后返回事件的內容

我們運行下看看把:

s = Splunk()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search('1.2.3.4'):

print event

print'-'

forevent ins.search('src_ip'):

print event

print'-'

forevent ins.search('ip'):

print event

src_ip = 1.2.3.4

dst_ip = 1.2.3.4

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

是不是很贊!

更復雜的搜索

更進一步,在搜索過程中,我們想用And和Or來實現更復雜的搜索邏輯。

上代碼:

classSplunkM(object):

def __init__(self):

self.bf = Bloomfilter(64)

self.terms = {}# Dictionary of term to set of events

self.events = []

def add_event(self,event):

"""Adds an event to this object"""

# Generate a unique ID for the event, and save it

event_id = len(self.events)

self.events.append(event)

# Add each term to the bloomfilter, and track the event by each term

forterm insegments(event):

self.bf.add_value(term)

ifterm notinself.terms:

self.terms[term] = set()

self.terms[term].add(event_id)

def search_all(self,terms):

"""Search for an AND of all terms"""

# Start with the universe of all events...

results = set(range(len(self.events)))

forterm interms:

# If a term isn't present at all then we can stop looking

ifnotself.bf.might_contain(term):

return

ifterm notinself.terms:

return

# Drop events that don't match from our results

results = results.intersection(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

def search_any(self,terms):

"""Search for an OR of all terms"""

results = set()

forterm interms:

# If a term isn't present, we skip it, but don't stop

ifnotself.bf.might_contain(term):

continue

ifterm notinself.terms:

continue

# Add these events to our results

results = results.union(self.terms[term])

forevent_id insorted(results):

yield self.events[event_id]

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

運行結果如下:

s = SplunkM()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

forevent ins.search_all(['src_ip','5.6']):

print event

print'-'

forevent ins.search_any(['src_ip','dst_ip']):

print event

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4

總結

以上的代碼只是為了說明大數據搜索的基本原理,包括布隆過濾器,分詞和倒排表。如果大家真的想要利用這代碼來實現真正的搜索功能,還差的太遠。所有的內容來自于Splunk Conf2017。大家如果有興趣可以去看網上的視頻。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • python
    +關注

    關注

    57

    文章

    4876

    瀏覽量

    90025

原文標題:用 Python 實現一個大數據搜索引擎

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    API數據分析:淘寶流量來源分析,渠道優化!

    優化渠道策略。我們將使用Python作為工具,結合數據分析和統計方法,確保過程真實可靠。 1. 理解淘寶流量來源 淘寶流量主要來自多個渠道,包括: 直接訪問 :用戶直接輸入淘寶網址或從收藏夾訪問。 搜索引擎 :如百度或淘寶內
    的頭像 發表于 01-23 13:42 ?172次閱讀
    API<b class='flag-5'>數據</b>分析:淘寶流量來源分析,渠道優化!

    邁富時GEO服務:技術驅動AI搜索時代的企業增長新引擎

    導語: 隨著DeepSeek、豆包、文心言等生成式AI搜索引擎的快速普及,用戶獲取信息的方式正從傳統"鏈接點擊"轉向"AI直接對話"。在這場深刻的信息檢索范式變革中,企業如何讓品牌內容被AI系統
    的頭像 發表于 01-17 21:20 ?257次閱讀

    人臉識別身份核驗終端廠家怎么挑?記住這四黃金法則

    硬件廠家至關重要。那么,究竟該如何尋找呢?、多渠道了解人臉識別身份核驗終端廠家通過多種渠道廣泛收集廠家信息。互聯網是獲取信息的便捷途徑,利用搜索引擎,輸入“人臉識
    的頭像 發表于 01-07 10:41 ?247次閱讀
    人臉識別身份核驗終端廠家怎么挑?記住這四<b class='flag-5'>個</b>黃金法則

    京東關鍵詞搜索商品列表的Python爬蟲實戰

    京東關鍵詞搜索商品列表 Python 爬蟲實戰 你想要實現京東關鍵詞搜索商品的爬蟲,我會從 合規聲明、環境準備、頁面分析、代碼實現、反爬優化
    的頭像 發表于 01-04 10:16 ?705次閱讀

    labview如何實現數據的采集與實時預測

    現有以下問題:labview可以實現數據的采集以及調用python代碼,但如何將這兩項功能集成在VI文件里,從而
    發表于 12-03 21:13

    工業UPS不間斷電源價格解析:優比施電源為您拆解成本與價值

    搜索引擎上,“工業UPS不間斷電源價格”是成千上萬企業采購人員和技術負責人高頻搜索的關鍵詞。然而,當您點開眾多頁面,卻很少能看到明確的數字。這并非廠家故弄玄虛,而是因為工業級UP
    的頭像 發表于 12-03 08:37 ?476次閱讀
    工業UPS不間斷電源價格解析:優比施電源為您拆解成本與價值

    5分鐘了解SEO優化服務器對網站加載速度的影響

    為SEO優化過的服務器,能顯著提升網站性能,從而在搜索引擎排名中占據有利位置。
    的頭像 發表于 12-02 10:27 ?331次閱讀

    根據標題獲取商品鏈接評論接口的技術實現

    [調用評論API] F --?> G[數據清洗存儲] ? 關鍵組件說明: 搜索引擎接口 :通過電商平臺開放API實現標題搜索 $$ text{API}_{search} = text{
    的頭像 發表于 10-20 16:03 ?658次閱讀
    根據標題獲取商品鏈接評論接口的技術<b class='flag-5'>實現</b>

    搜索關鍵詞獲取商品詳情接口的設計與實現

    ? ??在電商、內容平臺等應用中,用戶經常通過輸入關鍵詞搜索商品并獲取詳情。設計高效、可靠的API接口是核心需求。本文將逐步介紹如何設計并實現
    的頭像 發表于 10-20 15:37 ?504次閱讀
    <b class='flag-5'>搜索</b>關鍵詞獲取商品詳情接口的設計與<b class='flag-5'>實現</b>

    5關鍵技巧讓你的超聲波清洗設備更高效

    。因此,了解如何提高超聲波清洗設備的效率至關重要。本文將分享五關鍵技巧,幫助您實現最佳清洗效果,提升清潔效率,同時也吸引搜索引擎的關注。1.選擇合適的清洗液清洗
    的頭像 發表于 08-20 16:29 ?667次閱讀
    5<b class='flag-5'>個</b>關鍵技巧讓你的超聲波清洗設備更高效

    拼多多 API 實現拼多多店鋪商品搜索權重提升

    將分步講解如何利用 API 實現目標,確保內容真實可靠。 1. 理解搜索權重及其重要性 搜索權重是平臺算法對商品排名的綜合評分,基于多個因素計算。例如: 關鍵詞相關性:商品標題和描
    的頭像 發表于 08-19 17:23 ?786次閱讀
    <b class='flag-5'>用</b>拼多多 API <b class='flag-5'>實現</b>拼多多店鋪商品<b class='flag-5'>搜索</b>權重提升

    地平線余凱談AI時代產品方法論

    互聯網時代,商業邏輯始終圍繞“連接”與“理解人”展開。從搜索引擎、社交平臺再到短視頻應用,都在通過用戶行為數據揣摩人類偏好,優化服務體驗。
    的頭像 發表于 06-03 11:44 ?950次閱讀

    RAKsmart服務器SEO優化優勢分析

    在RAKsmart服務器上搭建SEO網站,可以借助其基礎設施和服務特性,從技術層面優化搜索引擎排名。以下是具體優勢及分析,主機推薦小編為您整理發布RAKsmart服務器SEO優化優勢分析。
    的頭像 發表于 04-22 10:12 ?663次閱讀

    手把手教你Coze智能體搭建,讓智能設備秒變天氣預報小助手

    ?今天,就跟著我們起,從0到1搭建專屬的天氣預報Coze小助手吧!搭建視頻1、登陸Coze官網訪問Coze官網有兩種便捷方式:是在搜索引擎
    的頭像 發表于 04-07 18:06 ?4987次閱讀
    手把手教你Coze智能體搭建,讓智能設備秒變天氣預報小助手

    BK1661 單頻多模 低功耗定位芯片

    GNSS部分 - 120 跟蹤通道以及專用的搜索引擎 - L1頻點支持GPS L1, Beidou B1, Galileo E1, QZSS L1, GLONASS G1 - 冷啟動靈敏度
    發表于 03-10 09:18