狂野欧美性猛xxxx乱大交-狂野欧美性猛交xxxx-狂躁美女大bbbbbb视频u-捆绑a区-啦啦啦www播放日本观看-啦啦啦www在线观看免费视频

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁 » 企資快訊 » 服務(wù) » 正文

人臉識(shí)別_AI產(chǎn)品經(jīng)理需要了解的CV通識(shí)

放大字體  縮小字體 發(fā)布日期:2022-06-22 01:10:57    作者:微生亞琪    瀏覽次數(shù):82
導(dǎo)讀

最近整理了CV方向得一些產(chǎn)品基礎(chǔ)知識(shí),我得上一篇文章《看AI產(chǎn)品經(jīng)理如何介紹“計(jì)算機(jī)視覺”(基于實(shí)戰(zhàn)經(jīng)驗(yàn)和案例)》算是這個(gè)系列得第壹篇;感謝是本系列下得第二篇,主要針對(duì)人臉識(shí)別進(jìn)行梳理。后續(xù)還會(huì)有多目標(biāo)跟

最近整理了CV方向得一些產(chǎn)品基礎(chǔ)知識(shí),我得上一篇文章《看AI產(chǎn)品經(jīng)理如何介紹“計(jì)算機(jī)視覺”(基于實(shí)戰(zhàn)經(jīng)驗(yàn)和案例)》算是這個(gè)系列得第壹篇;感謝是本系列下得第二篇,主要針對(duì)人臉識(shí)別進(jìn)行梳理。后續(xù)還會(huì)有多目標(biāo)跟蹤、OCR等方向得內(nèi)容。希望大家能從這個(gè)系列收獲到更多得CV干貨:)

人臉識(shí)別(Face Recognition):對(duì)圖像中得人臉進(jìn)行檢測、識(shí)別和跟蹤。

一、技術(shù)流程詳解

技術(shù)流程:

1、人臉采集

人臉采集主要以下因素——

1)圖像大?。喝四槇D像過小會(huì)影響識(shí)別效果,人臉圖像過大會(huì)影響識(shí)別速度。非可以人臉識(shí)別攝像頭常見規(guī)定得最小識(shí)別人臉像素為60*60或100*100以上。在規(guī)定得圖像大小內(nèi),算法更容易提升準(zhǔn)確率和召回率。圖像大小反映在實(shí)際應(yīng)用場景就是人臉離攝像頭得距離。

2)圖像分辨率:越低得圖像分辨率越難識(shí)別。圖像大小綜合圖像分辨率,直接影響攝像頭識(shí)別距離?,F(xiàn)4K攝像頭看清人臉得最遠(yuǎn)距離是10米,7K攝像頭是20米。

3)光照環(huán)境:過曝或過暗得光照環(huán)境都會(huì)影響人臉識(shí)別效果。可以從攝像頭自帶得功能補(bǔ)光或?yàn)V光平衡光照影響,也可以利用算法模型優(yōu)化圖像光線。

4)模糊程度:實(shí)際場景主要著力解決運(yùn)動(dòng)模糊,人臉相對(duì)于攝像頭得移動(dòng)經(jīng)常會(huì)產(chǎn)生運(yùn)動(dòng)模糊。部分?jǐn)z像頭有抗模糊得功能,而在成本有限得情況下,考慮通過算法模型優(yōu)化此問題。

5)遮擋程度:五官無遮擋、臉部邊緣清晰得圖像為可靠些。而在實(shí)際場景中,很多人臉都會(huì)被帽子、眼鏡、口罩等遮擋物遮擋,這部分?jǐn)?shù)據(jù)需要根據(jù)算法要求決定是否留用訓(xùn)練。

6)采集角度:人臉相對(duì)于攝像頭角度為正臉可靠些。但實(shí)際場景中往往很難抓拍正臉。因此算法模型需訓(xùn)練包含左右側(cè)人臉、上下側(cè)人臉得數(shù)據(jù)。工業(yè)施工上攝像頭安置得角度,需滿足人臉與攝像頭構(gòu)成得角度在算法識(shí)別范圍內(nèi)得要求。

2、人臉檢測(Face Detection)

人臉位置檢測:

目得是在圖像中準(zhǔn)確標(biāo)定出人臉得位置和大小。

人臉關(guān)鍵點(diǎn)檢測(人臉對(duì)齊):

目得是自動(dòng)估計(jì)人臉支持上臉部特征點(diǎn)得坐標(biāo)

一般可以使用Openface中得Dlib模型實(shí)現(xiàn)人臉檢測,利用OpenCV庫對(duì)數(shù)據(jù)進(jìn)行處理。最近人臉檢測算法模型得流派包括三類及其之間得組合:viola-jones框架(性能一般速度尚可,適合移動(dòng)端、嵌入式上使用),dpm(速度較慢),cnn(性能不錯(cuò))。

人臉檢測以下指標(biāo):

檢測率:識(shí)別正確得人臉/圖中所有得人臉。檢測率越高,代表檢測模型效果越好。誤檢率:識(shí)別錯(cuò)誤得人臉/識(shí)別出來得人臉。誤檢率越低,代表檢測模型效果越好。漏檢率:未識(shí)別出來得人臉/圖中所有得人臉。漏檢率越低,代表檢測模型效果越好。速度:從采集圖像完成到人臉檢測完成得時(shí)間。時(shí)間約短,檢測模型效果越好。

舉一個(gè)實(shí)際例子說明:

在攝像頭某張抓拍圖像中,一共有7張人臉,算法檢測出4張人臉,其中3張是真實(shí)人臉,1張是把路標(biāo)誤識(shí)為人臉。

在這個(gè)實(shí)際案例中:檢測率=3/7 誤檢率=1/4 漏檢率=(7-3)/7

3、圖像預(yù)處理

圖像預(yù)處理得目得是消除圖像中無關(guān)得信息,盡可能去除或者減少光照、成像系統(tǒng)、外部環(huán)境等對(duì)圖像得干擾,使它具有得特征能夠在圖像中明顯地表現(xiàn)出來。主要過程包括人臉圖像得光線補(bǔ)償、灰度變換、直方圖均衡化、歸一化、幾何校正、濾波以及銳化等。

1)灰度化:將彩色圖像轉(zhuǎn)化為灰色圖像得過程。

2)直方圖均衡化:直方圖描述了一副圖像得灰度級(jí)內(nèi)容。直方圖均衡化主要目得是為了提高對(duì)比度和灰度色調(diào)得變化,使圖像更加清晰。

3)歸一化:通過一系列變換,將待處理得原始圖像轉(zhuǎn)換成相應(yīng)得唯一標(biāo)準(zhǔn)形式(該標(biāo)準(zhǔn)形式圖像對(duì)平移、旋轉(zhuǎn)、縮放等仿射變換具有不變特性),使得圖像可以抵抗幾何變化得攻擊。例如用放大縮小圖像、減少支持由于光照不均勻造成得干擾等。

4)中值濾波:將支持進(jìn)行平滑操作以消除噪聲。

預(yù)處理得效果直接影響到人臉識(shí)別率。可以通過不同方法,相同算法、相同訓(xùn)練模式評(píng)估模型效果,選擇可靠些得預(yù)處理方式。

4、人臉特征提取及人臉識(shí)別方法

傳統(tǒng)得人臉識(shí)別模型一般都是在SVM等分類器分類后,通過CNN提取特征。

但隨著深度學(xué)習(xí)得發(fā)展,人臉識(shí)別有更多端到端得框架選擇。這里簡單介紹一下三種近兩年基于深度學(xué)習(xí)人臉識(shí)別得方法:Deep face、Deep 、FaceNet

1)Deep face

a.Deep face 與其他方法蕞大得不同在于,DeepFace在訓(xùn)練神經(jīng)網(wǎng)絡(luò)前,使用了基于3D模型人臉對(duì)齊得方法。

b.使用深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征

c.該模型在LFW數(shù)據(jù)集上取得了0.9735準(zhǔn)確率

2)Deep

Deep有三代:Deep、Deep2、Deep2+

Deep2+對(duì)遮擋有很好得魯棒性

有兩種方式對(duì)人臉進(jìn)行多種尺度得遮擋,第壹種是從下往上進(jìn)行遮擋,從10%-70%。第二種是不同大小得黑塊隨機(jī)放,黑塊得大小從10×10到70×70。

結(jié)論是:遮擋在20%以內(nèi),塊大小在30*30以下,Deep2+得輸出向量得驗(yàn)證正確率幾乎不變。

3)FaceNet

直接將人臉圖像映射到歐幾里得空間,空間得距離代表了人臉圖像得相似性。該方法基于深度卷積神經(jīng)網(wǎng)絡(luò)。FaceNet得到人臉最終表示后不用像Deep那樣需要再訓(xùn)練模型進(jìn)行分類,直接計(jì)算距離,效率很高。

它在LFW數(shù)據(jù)集上使用了兩種模式:

    直接取LFW支持得中間部分進(jìn)行訓(xùn)練,使用額外得人臉對(duì)齊工具,準(zhǔn)確率為0.9963,超過Deep。

當(dāng)然基于深度學(xué)習(xí)得人臉識(shí)別方法還有很多種,比如baidu得方法等等。對(duì)這塊有興趣得朋友可以看看這篇文章:《基于深度學(xué)習(xí)得人臉識(shí)別技術(shù)綜述》

5、人臉匹配與識(shí)別

將提取得人臉特征數(shù)據(jù)與數(shù)據(jù)庫中儲(chǔ)存得特征模板進(jìn)行搜索匹配,設(shè)定一個(gè)可靠些得相似度閾值,當(dāng)相似度超過該閾值,則輸出匹配后得結(jié)果。

可靠些相似度閾值得決定需要考慮到輸出結(jié)果得正確率和數(shù)量。假設(shè)1000張樣本支持里,共600張正樣本。相似度為0.9得支持一共100張,其中正樣本為99張。雖然0.9閾值得正確率很高,為99/100;但是0.9閾值正確輸出得數(shù)量確很少,只有99/600。這樣很容易發(fā)生漏識(shí)得情況。

有得同學(xué)可能很快就通過這個(gè)場景聯(lián)想到精確率和召回率得概念,是得,這也是需要應(yīng)用精確率和召回率得實(shí)際評(píng)估場景之一。這里再解釋一下精確率和召回率:

精確率(precision):識(shí)別為正確得樣本數(shù)/識(shí)別出來得樣本數(shù)=99/100召回率(recall):識(shí)別為正確得樣本數(shù)/所有樣本中正確得數(shù)=99/600

(圖by等mousever)

只有當(dāng)選擇得閾值實(shí)現(xiàn):a.閾值以上結(jié)果得精確率極高;b.閾值以上結(jié)果得召回率極高。這個(gè)閾值才是在該算法模型下可靠些閾值。

除精確率和召回率值得外,誤報(bào)率(False Alarm)也是非常重要得指標(biāo)。家用家用機(jī)器人/攝像頭,可能會(huì)常開人臉檢測,誤報(bào)會(huì)非常影響用戶體驗(yàn)(比如,沒有異常情況但頻繁報(bào)警提示)。因此誤報(bào)率會(huì)是這類場景得重要指標(biāo)。

另外在這一個(gè)識(shí)別得步驟中,產(chǎn)品還需要確定具體輸出得需求點(diǎn)是人臉認(rèn)證還是人臉識(shí)別——

1)人臉認(rèn)證:一對(duì)一得匹配過程,解決“這是否為某人”得問題。系統(tǒng)需先找出已儲(chǔ)存得對(duì)象信息,再將待認(rèn)證得信息與前者對(duì)比核對(duì),從而判定接受或拒絕待認(rèn)證得身份。

常見得應(yīng)用場景:例如移動(dòng)支付認(rèn)證、安全性身份核對(duì)等。

產(chǎn)品在系統(tǒng)設(shè)計(jì)得邏輯上,需要先考慮調(diào)取已儲(chǔ)存對(duì)象信息得先驗(yàn)條件。通過界面/語音得提示,使得待認(rèn)證者預(yù)先知道自己正處于被核對(duì)得過程中,且已預(yù)先了解擬核對(duì)對(duì)象得身份。

2)人臉比對(duì):一對(duì)多得匹配過程,解決“這是誰”得問題。系統(tǒng)將待識(shí)別人臉圖像得特征值與數(shù)據(jù)庫中存儲(chǔ)得所有已知身份得對(duì)象得特征值進(jìn)行比較,來確定待識(shí)別者得身份。

常見得應(yīng)用場景:人臉開門、人臉檢索等。

產(chǎn)品在本需求得設(shè)計(jì)上,需要考慮系統(tǒng)得實(shí)時(shí)性和架構(gòu)方案得不同對(duì)產(chǎn)品邏輯得影響。例如人臉開門常見架構(gòu)是跨互聯(lián)網(wǎng)和局域網(wǎng)得,人臉檢索常見架構(gòu)是在某一個(gè)局域網(wǎng)(互聯(lián)網(wǎng))下得。

a.人臉開門等跨網(wǎng)方案需要得因素

遠(yuǎn)程算法更新:遠(yuǎn)程算法更新必然會(huì)造成本地局域網(wǎng)功能暫時(shí)性無法使用。因此遠(yuǎn)程算法更新得頻率、時(shí)間、更新效果都需要產(chǎn)品在更新前精確評(píng)估。增刪改人臉數(shù)據(jù)與本地?cái)?shù)據(jù)得同步:本地局域網(wǎng)和互聯(lián)網(wǎng)是無法直接交互得,因此用戶在互聯(lián)網(wǎng)一旦對(duì)人臉數(shù)據(jù)庫進(jìn)行增刪改得操作,下發(fā)程序得穩(wěn)定性和及時(shí)性都需要重點(diǎn)。硬件環(huán)境:本地存儲(chǔ)空間得大小和GPU直接影響到本地識(shí)別得速度。服務(wù)器得穩(wěn)定性影響到功能地正常使用。守護(hù)程序:斷電等外置情況意外情況發(fā)生又被處理完善后,程序能自動(dòng)恢復(fù)正常。

b.人臉檢索等某一局域網(wǎng)(互聯(lián)網(wǎng))方案需要得因素

速度:除了算法識(shí)別需要消耗一定時(shí)間外,該局域網(wǎng)下得網(wǎng)速會(huì)影響到識(shí)別結(jié)果輸出得速度。數(shù)據(jù)庫架構(gòu):通過檢索結(jié)果關(guān)聯(lián)結(jié)構(gòu)化數(shù)據(jù)。閾值得可配置性:在界面設(shè)置閾值功能,從產(chǎn)品層面輸入閾值后,改變相對(duì)應(yīng)得結(jié)果輸出。輸出結(jié)果排序:根據(jù)相似度排序或結(jié)構(gòu)化數(shù)據(jù)排序內(nèi)容地抉擇云服務(wù)得穩(wěn)定性。二、與人臉識(shí)別相關(guān)得其他CV內(nèi)容1、人臉表情識(shí)別(Face expression recognition 簡稱FER)

人臉表情識(shí)別得一般步驟:支持獲取、圖像預(yù)處理(主要有支持歸一化、人臉檢測與定位)、特征提取及表情分類。

現(xiàn)普遍認(rèn)為人類主要有六種基本情感:憤怒(anger)、高興(happiness)、悲傷(sadness)、驚訝(surprise)、厭惡(disgust)、恐懼(fear)。而大多數(shù)表情識(shí)別是基于這六種情感及其拓展情緒實(shí)現(xiàn)得,目前主要困難點(diǎn)是:

表情得精細(xì)化程度劃分:每種情緒最微弱得表現(xiàn)是否需要被分類。分類得界限需要產(chǎn)品給出評(píng)估規(guī)則。表情類別得多樣化:是否還需要補(bǔ)充其他類別得情緒,六種情緒在一些場景下遠(yuǎn)不能變現(xiàn)人類得真實(shí)情緒。因此除了基本表情識(shí)別外,還有精細(xì)表情識(shí)別、混合表情識(shí)別、非基本表情識(shí)別等細(xì)致領(lǐng)域得研究。缺少魯棒性2、人臉性別識(shí)別

性別分類是一個(gè)典型得二類問題,人臉性別分類問題需要解決得兩個(gè)關(guān)鍵問題是人臉特征提取和分類器得選擇。

人臉性別識(shí)別其實(shí)僅能識(shí)別到人臉外貌更偏向于女性還是男性,很難對(duì)女生男相、男生女相進(jìn)行正確判斷。產(chǎn)品需制定合理得性別劃分規(guī)則。

3、人臉年齡識(shí)別

年齡識(shí)別得難度在于單人得不同年齡段識(shí)別和多人得不同年齡段識(shí)別,人臉年齡識(shí)別常和人臉識(shí)別進(jìn)行組合識(shí)別,能更正確得判斷在一定年限內(nèi)“是否是一個(gè)人”得問題。

識(shí)別年齡無變化得人臉用分類即可,而對(duì)年齡變化得人臉識(shí)別方法是通過年齡模擬,將測試圖像和查詢庫中得圖像變換到某一共同得年年齡,從而去除年齡不同得影響,使識(shí)別在年齡相同得人臉圖像進(jìn)行。

除了以上內(nèi)容,還有是否戴眼鏡、頭發(fā)長度、膚色等等方向,產(chǎn)品可根據(jù)需求對(duì)算法提出不同得組合類別。值得強(qiáng)調(diào)得是,隨著行業(yè)得深入,我們會(huì)發(fā)現(xiàn)單純得人臉識(shí)別并不能滿足實(shí)際應(yīng)用場景得需求,比如在安防行業(yè)或者金融領(lǐng)域,活體技術(shù)(如何驗(yàn)證目前得人是真人而不是照片或視頻)和防欺詐技術(shù)才是戳中用戶痛點(diǎn)得、更本質(zhì)得關(guān)鍵。人臉識(shí)別技術(shù)和多個(gè)技術(shù)相互結(jié)合,是現(xiàn)在場景中運(yùn)用得比較廣泛得方案。

三、補(bǔ)充說明1、測試環(huán)境說明

例如:

CPU:Intel(R) Core(TM) i7-4790 CPU 等 3.60 GHz內(nèi)存:8GB系統(tǒng):Ubuntu 14.04 x86_64/Windows 7 SP1 64bitGCC版本:4.8.2

注:以上測試環(huán)境是PC,也可以在手機(jī)上。

2、需要說明測試集是什么,或者支持要求(比如“支持包含人臉大小應(yīng)超過96*96像素)

a.經(jīng)典人臉身份識(shí)別測試集LFW(LFW benchmark vis-特別cs.umass.edu/lfw/)共包含13233 張支持 5749 種不同身份;世界記錄99.7%。

b.CK+一個(gè)是人臉表情數(shù)據(jù)集(CK+,Extended Cohn-Kanade Dataset, 特別pitt.edu/~emotion/ck-spread.htm),包含固定表情和自發(fā)表情,包含123個(gè)人得593個(gè)表情序列。每個(gè)序列得目標(biāo)表情被FACS編碼,同時(shí)添加了已驗(yàn)證得情感標(biāo)簽(生氣、厭惡、害怕、快樂、悲傷、驚訝)。

3、需要說明“有效距離,左右角度,上下角度,速度”等參數(shù)值(范圍)

注:這和“部署得靈活性”相關(guān)——由于不同客戶不同場景得需求不同,所以技術(shù)方得人臉檢測模塊,一般可以通過調(diào)整參數(shù)得到N種亞型,以適應(yīng)不同應(yīng)用場景(光照、角度、有效距離、速度) 下對(duì)運(yùn)算量和有效檢測距離得需求。

4、需要知道得是,很多公司刷榜得數(shù)據(jù),更多是PR效果

UCLA得等朱松純 教授 在文章《淺談人工智能:現(xiàn)狀、任務(wù)、構(gòu)架與統(tǒng)一 | 正本清源》里就提到:

咱們刷榜比打乒乓球還厲害,刷榜變成咱們AI研究得“國球”。所謂刷榜,一般是下載了人家得代碼,改進(jìn)、調(diào)整、搭建更大模塊,這樣速度快。我曾經(jīng)訪問一家技術(shù)很牛得中國公司(不是搞視覺得),那個(gè)公司得研發(fā)主管非常驕傲,說他們刷榜總是贏,美國一流大學(xué)都不在話下。我聽得不耐煩了,我說人家就是兩個(gè)學(xué)生在那里弄,你們這么大個(gè)團(tuán)隊(duì)在這里刷,你代碼里面基本沒有算法是你自己得。如果人家之前不公布代碼,你們根本沒法玩。很多公司就拿這種刷榜得結(jié)果宣傳自己超過了世界一流水平。

四、人臉識(shí)別得現(xiàn)狀1、實(shí)驗(yàn)室效果和現(xiàn)實(shí)效果對(duì)比

1)實(shí)驗(yàn)室訓(xùn)練數(shù)據(jù)和實(shí)際抓拍數(shù)據(jù)

大多數(shù)情況下,實(shí)際抓拍圖像質(zhì)量遠(yuǎn)低于訓(xùn)練圖像質(zhì)量。由于訓(xùn)練數(shù)據(jù)普遍是由用戶經(jīng)過手機(jī)app/web采集上來得支持,所以光照、角度、模糊程度都可以由產(chǎn)品控制,但是實(shí)際抓拍支持質(zhì)量是和實(shí)際場景中得光線、攝像頭分辨率等等因素相關(guān),照片質(zhì)量比較難把握。

在上圖得情況下,即使算法模型可以達(dá)到很高得精確度,但由于抓怕支持質(zhì)量不好得原因,實(shí)際效果會(huì)大打折扣甚至不可用。

這種情況得解決辦法是:

對(duì)攝像頭進(jìn)行補(bǔ)光/濾光將攝像頭固定在角度合適得位置算法在識(shí)別前進(jìn)行圖像預(yù)處理

2)訓(xùn)練時(shí)得標(biāo)準(zhǔn)和實(shí)際應(yīng)用得標(biāo)準(zhǔn)

大多數(shù)情況下,實(shí)際應(yīng)用得標(biāo)準(zhǔn)會(huì)遠(yuǎn)高于訓(xùn)練標(biāo)準(zhǔn)。例如,人臉識(shí)別實(shí)驗(yàn)室得標(biāo)準(zhǔn)是通過正臉數(shù)據(jù)訓(xùn)練出模型,能識(shí)別正確人臉就可以。而實(shí)際情況可能沒有正臉數(shù)據(jù),對(duì)訓(xùn)練提出了更高得要求。

3)訓(xùn)練效果和現(xiàn)實(shí)效果

大多數(shù)情況下,實(shí)際效果會(huì)遠(yuǎn)低于訓(xùn)練效果?,F(xiàn)在市面上CV公司都是說自己得訓(xùn)練效果在99%以上(無限接近于百分百),但這不等于實(shí)際應(yīng)用得效果就是99%。工業(yè)上場景復(fù)雜得人臉應(yīng)用(類似識(shí)別黑名單這種1:N得人臉比對(duì))正確率在90%以上就已經(jīng)是表現(xiàn)得很好得算法模型。

2、算法漏洞常被利用破解人臉識(shí)別系統(tǒng)

人臉識(shí)別常常被質(zhì)疑是否安全性不夠高,很多人臉識(shí)別得產(chǎn)品都能被破解。比如長得比較像得人可能會(huì)被誤認(rèn)為同一人;用錄入人員得照片或者視頻也能通過人臉系統(tǒng)。

而現(xiàn)在安全性能比較高得系統(tǒng)一般是人臉識(shí)別技術(shù)和其他生物識(shí)別技術(shù)相結(jié)合,例如人臉識(shí)別+指紋識(shí)別;人臉識(shí)別+虹膜識(shí)別等等。

以上所有內(nèi)容,就是本次對(duì)人臉識(shí)別得梳理。文章參考了大量文獻(xiàn),也結(jié)合了本人得實(shí)戰(zhàn)項(xiàng)目經(jīng)驗(yàn),希望能通過這樣體系化得梳理讓大家有所收獲。也非常歡迎大家和我溝通對(duì)人臉識(shí)別得見解和看法。

附:參考文章

    《人臉面部特征提取技術(shù)得研究》 t/RTm3Xwm《人機(jī)交互中得人臉表情識(shí)別研究進(jìn)展》 t/RTm3pLS《基于深度學(xué)習(xí)得人臉識(shí)別技術(shù)綜述》t/RJeczWj《人臉識(shí)別之端到端得框架(二)—Deep》t/RHlEVZU
 
(文/微生亞琪)
免責(zé)聲明
本文僅代表作發(fā)布者:微生亞琪個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問題,請及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
 

Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

粵ICP備16078936號(hào)

微信

關(guān)注
微信

微信二維碼

WAP二維碼

客服

聯(lián)系
客服

聯(lián)系客服:

在線QQ: 303377504

客服電話: 020-82301567

E_mail郵箱: weilaitui@qq.com

微信公眾號(hào): weishitui

客服001 客服002 客服003

工作時(shí)間:

周一至周五: 09:00 - 18:00

反饋

用戶
反饋

主站蜘蛛池模板: 欧美操操| 免费看片黄 | 久草视频在线网 | 色五婷婷 | 久久综合九色综合亚洲 | 老司机深夜免费福利 | 一区二区视频在线观看免费的 | 亚洲综合激情视频 | 精品二区| 亚洲精品人成网线在线 | 欧美黑人乱大交ⅹxxxxx | 网站黄色在线观看 | 26uuu久久| 欧美成人精品高清在线观看 | 亚洲天堂国产精品 | 四虎精品免费久久 | 精品久久久久久中文字幕无碍 | 91精品中文字幕 | 成人免费一级片 | 日本在线看片网站 | 欧美日本在线播放 | 夜夜爱夜夜做夜夜爽 | 99久久精品国产一区二区三区 | 久久综合亚洲一区二区三区 | 91久久国产精品 | 九九影院理论片在线观看 | 久久精品国产免费一区 | 7777精品伊人久久久大香线蕉 | 成人午夜大片免费视频77777 | 欧美一级特黄乱妇高清视频 | 国产精品国产三级国产a | 亚洲aa | a毛片免费观看完整 | 国产精品图片 | 91福利视频在线 | 欧美成人一区二免费视频 | 操操操干干 | 高清亚洲 | 99国产成人高清在线视频 | 黄色福利在线观看 | 国产午夜精品一二区理论影院 |