好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > python中的被動信息搜集

python中的被動信息搜集

熱門標(biāo)簽:幫人做地圖標(biāo)注收費(fèi)算詐騙嗎 蘇州電銷機(jī)器人十大排行榜 荊州云電銷機(jī)器人供應(yīng)商 電信營業(yè)廳400電話申請 遼寧400電話辦理多少錢 外呼不封號系統(tǒng) 溫州旅游地圖標(biāo)注 江蘇房產(chǎn)電銷機(jī)器人廠家 悟空智電銷機(jī)器人6

概述:

被動信息搜集主要通過搜索引擎或者社交等方式對目標(biāo)資產(chǎn)信息進(jìn)行提取,通常包括IP查詢,Whois查詢,子域名搜集等。進(jìn)行被動信息搜集時(shí)不與目標(biāo)產(chǎn)生交互,可以在不接觸到目標(biāo)系統(tǒng)的情況下挖掘目標(biāo)信息。

主要方法:DNS解析,子域名挖掘,郵件爬取等。

DNS解析:

1、概述:

DNS(Domain Name System,域名系統(tǒng))是一種分布式網(wǎng)絡(luò)目錄服務(wù),主要用于域名與IP地址的相互轉(zhuǎn)換,能夠使用戶更方便地訪問互聯(lián)網(wǎng),而不用去記住一長串?dāng)?shù)字(能夠被機(jī)器直接讀取的IP)。

2、IP查詢:

IP查詢是通過當(dāng)前所獲取的URL去查詢對應(yīng)IP地址的過程??梢岳肧ocket庫函數(shù)中的gethostbyname()獲取域名對應(yīng)的IP值。

代碼:

import socket

ip = socket.gethostbyname('www.baidu.com')
print(ip)

返回:

39.156.66.14

3、Whois查詢:

Whois是用來查詢域名的IP以及所有者信息的傳輸協(xié)議。Whois相當(dāng)于一個(gè)數(shù)據(jù)庫,用來查詢域名是否已經(jīng)被注冊,以及注冊域名的詳細(xì)信息(如域名所有人,域名注冊商等)。

Python中的python-whois模塊可用于Whois查詢。

代碼:

from whois import whois

data = whois('www.baidu.com')
print(data)

返回:

E:\python\python.exe "H:/code/Python Security/Day01/Whois查詢.py"
{
  "domain_name": [
    "BAIDU.COM",
    "baidu.com"
  ],
  "registrar": "MarkMonitor, Inc.",
  "whois_server": "whois.markmonitor.com",
  "referral_url": null,
  "updated_date": [
    "2020-12-09 04:04:41",
    "2021-04-07 12:52:21"
  ],
  "creation_date": [
    "1999-10-11 11:05:17",
    "1999-10-11 04:05:17"
  ],
  "expiration_date": [
    "2026-10-11 11:05:17",
    "2026-10-11 00:00:00"
  ],
  "name_servers": [
    "NS1.BAIDU.COM",
    "NS2.BAIDU.COM",
    "NS3.BAIDU.COM",
    "NS4.BAIDU.COM",
    "NS7.BAIDU.COM",
    "ns3.baidu.com",
    "ns2.baidu.com",
    "ns7.baidu.com",
    "ns1.baidu.com",
    "ns4.baidu.com"
  ],
  "status": [
    "clientDeleteProhibited https://icann.org/epp#clientDeleteProhibited",
    "clientTransferProhibited https://icann.org/epp#clientTransferProhibited",
    "clientUpdateProhibited https://icann.org/epp#clientUpdateProhibited",
    "serverDeleteProhibited https://icann.org/epp#serverDeleteProhibited",
    "serverTransferProhibited https://icann.org/epp#serverTransferProhibited",
    "serverUpdateProhibited https://icann.org/epp#serverUpdateProhibited",
    "clientUpdateProhibited (https://www.icann.org/epp#clientUpdateProhibited)",
    "clientTransferProhibited (https://www.icann.org/epp#clientTransferProhibited)",
    "clientDeleteProhibited (https://www.icann.org/epp#clientDeleteProhibited)",
    "serverUpdateProhibited (https://www.icann.org/epp#serverUpdateProhibited)",
    "serverTransferProhibited (https://www.icann.org/epp#serverTransferProhibited)",
    "serverDeleteProhibited (https://www.icann.org/epp#serverDeleteProhibited)"
  ],
  "emails": [
    "abusecomplaints@markmonitor.com",
    "whoisrequest@markmonitor.com"
  ],
  "dnssec": "unsigned",
  "name": null,
  "org": "Beijing Baidu Netcom Science Technology Co., Ltd.",
  "address": null,
  "city": null,
  "state": "Beijing",
  "zipcode": null,
  "country": "CN"
}

Process finished with exit code 0

子域名挖掘:

1、概述:

域名可以分為頂級域名,一級域名,二級域名等。

子域名(subdomain)是頂級域名(一級域名或父域名)的下一級。

在測試過程中,測試目標(biāo)主站時(shí)如果未發(fā)現(xiàn)任何相關(guān)漏洞,此時(shí)通常會考慮挖掘目標(biāo)系統(tǒng)的子域名。

子域名挖掘方法有多種,例如,搜索引擎,子域名破解,字典查詢等。

2、利用Python編寫一個(gè)簡單的子域名挖掘工具:

(以https://cn.bing.com/為例)

代碼:

# coding=gbk
import requests
from bs4 import BeautifulSoup
from urllib.parse import urlparse
import sys


def Bing_Search(site, pages):
    Subdomain = []
    # 以列表的形式存儲子域名
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
        'Referer': 'https://cn.bing.com/',
        'Cookie': 'MUID=37FA745F1005602C21A27BB3117A61A3; SRCHD=AF=NOFORM; SRCHUID=V=2GUID=DA7BDD699AFB4AEB8C68A0B4741EFA74dmnchg=1; MUIDB=37FA745F1005602C21A27BB3117A61A3; ULC=P=9FD9|1:1H=9FD9|1:1T=9FD9|1:1; PPLState=1; ANON=A=CEC39B849DEE39838493AF96FFFFFFFFE=1943W=1; NAP=V=1.9E=18e9C=B8-HXGvKTE_2lQJ0I3OvbJcIE8caEa9H4f3XNrd3z07nnV3pAxmVJQW=1; _tarLang=default=en; _TTSS_IN=hist=WyJ6aC1IYW5zIiwiYXV0by1kZXRlY3QiXQ==; _TTSS_OUT=hist=WyJlbiJd; ABDEF=V=13ABDV=13MRB=1618913572156MRNB=0; KievRPSSecAuth=FABSARRaTOJILtFsMkpLVWSG6AN6C/svRwNmAAAEgAAACPyKw8I/CYhDEAFiUHPfZQSWnp%2BMm43NyhmcUtEqcGeHpvygEOz6CPQIUrTCcE3VESTgWkhXpYVdYAKRL5u5EH0y3%2BmSTi5KxbOq5zlLxOf61W19jGuTQGjb3TZhsv5Wb58a2I8NBTwIh/cFFvuyqDM11s7xnw/ZZoqc9tNuD8ZG9Hi29RgIeOdoSL/Kzz5Lwb/cfSW6GbawOVtMcToRJr20K0C0zGzLhxA7gYH9CxajTo7w5kRx2/b/QjalnzUh7lvZCNrF5naagj10xHhZyHItlNtjNe3yqqLyLZmgNrzT8o7QWfpJWHqAak4AFt3nY9R0NGLHM6UxPC8ph9hEaYbWtIsY7JNvVYFwbDk6o4oqu33kHeyqW/JTVhQACnpn2v74dZzvk4xRp%2BpcQIoRIzI%3D; _U=1ll1JNraa8gnrWOg3NTDw_PUniDnXYIikDzB-R_hVgutXRRVFcrnaPKxVBXA1w-dBZJsJJNfk6vGHSqJtUsLXvZswsd5A1xFvQ_V_nUInstIfDUs7q7FyY2DmvDRlfMIqbgdt-KEqazoz-r_TLWScg4_WDNFXRwg6Ga8k2cRyOTfGNkon7kVCJ7IoPDTAdqdP; WLID=kQRArdi2czxUqvURk62VUr88Lu/DLn6bFfcwTmB8EoKbi3UZYvhKiOCdmPbBTs0PQ3jO42l3O5qWZgTY4FNT8j837l8J9jp0NwVh2ytFKZ4=; _EDGE_S=SID=01830E382F4863360B291E1B2E6662C7; SRCHS=PC=ATMM; WLS=C=3d04cfe82d8de394N=%e5%81%a5; SRCHUSR=DOB=20210319T=1619277515000TPC=1619267174000POEX=W; SNRHOP=I=TS=; _SS=PC=ATMMSID=01830E382F4863360B291E1B2E6662C7bIm=656; ipv6=hit=1619281118251t=4; SRCHHPGUSR=SRCHLANGV2=zh-HansBRW=WBRH=SCW=1462CH=320DPR=1.25UTC=480DM=0WTS=63754766339HV=1619277524BZA=0TH=ThAb5NEWWND=1NRSLT=-1LSL=0SRCHLANG=AS=1NNT=1HAP=0VSRO=0'
    }
    for i in range(1, int(pages)+1):
        url = "https://cn.bing.com/search?q=site%3a" + site + "go=Searchqs=dsfirst=" + str((int(i)-1)*10) + "FORM=PERE"
        html = requests.get(url, headers=headers)
        soup = BeautifulSoup(html.content, 'html.parser')
        job_bt = soup.findAll('h2')
        for i in job_bt:
            link = i.a.get('href')
            domain = str(urlparse(link).scheme + "://" + urlparse(link).netloc)
            if domain in Subdomain:
                pass
            else:
                Subdomain.append(domain)
                print(domain)


if __name__ == '__main__':
    if len(sys.argv) == 3:
        site = sys.argv[1]
        page = sys.argv[2]
    else:
        print("usge: %s baidu.com 10" % sys.argv[0])
        # 輸出幫助信息
        sys.exit(-1)
    Subdomain = Bing_Search('www.baidu.com', 15)

返回:

郵件爬?。?br />

1、概述:

針對目標(biāo)系統(tǒng)進(jìn)行滲透的過程中,如果目標(biāo)服務(wù)器安全性很高,通過服務(wù)器很難獲取目標(biāo)權(quán)限時(shí),通常會采用社工的方式對目標(biāo)服務(wù)進(jìn)行進(jìn)一步攻擊。

針對搜索界面的相關(guān)郵件信息進(jìn)行爬取、處理等操作之后。利用獲得的郵箱賬號批量發(fā)送釣魚郵件,誘騙、欺詐目標(biāo)用戶或管理員進(jìn)行賬號登錄或點(diǎn)擊執(zhí)行,進(jìn)而獲取目標(biāo)系統(tǒng)的其權(quán)限。

該郵件采集工具所用到的相關(guān)庫函數(shù)如下:

import sys
import getopt
import requests
from bs4 import BeautifulSoup
import re

2、過程:

①:在程序的起始部分,當(dāng)執(zhí)行過程中沒有發(fā)生異常時(shí),則執(zhí)行定義的start()函數(shù)。

通過sys.argv[ ] 實(shí)現(xiàn)外部指令的接收。其中,sys.argv[0] 代表代碼本身的文件路徑,sys.argv[1:] 表示從第一個(gè)命令行參數(shù)到輸入的最后一個(gè)命令行參數(shù),存儲形式為list。

代碼如下:

if __name__ == '__main__':
    # 定義異常
    try:
        start(sys.argv[1: ])
    except:
        print("interrupted by user, killing all threads ... ")

②:編寫命令行參數(shù)處理功能。此處主要應(yīng)用  getopt.getopt()函數(shù)處理命令行參數(shù),該函數(shù)目前有短選項(xiàng)和長選項(xiàng)兩種格式。

短選項(xiàng)格式為“ - ”加上單個(gè)字母選項(xiàng);

長選項(xiàng)格式為“ -- ”加上一個(gè)單詞選項(xiàng)。

opts為一個(gè)兩元組列表,每個(gè)元素形式為“(選項(xiàng)串,附加參數(shù))”。當(dāng)沒有附加參數(shù)時(shí),則為空串。之后通過for語句循環(huán)輸出opts列表中的數(shù)值并賦值給自定義的變量。

代碼如下:

def start(argv):
    url = ""
    pages = ""
    if len(sys.argv)  2:
        print("-h 幫助信息;\n")
        sys.exit()
    # 定義異常處理
    try:
        banner()
        opts, args = getopt.getopt(argv, "-u:-p:-h")
    except:
        print('Error an argument')
        sys.exit()
    for opt, arg in opts:
        if opt == "-u":
            url = arg
        elif opt == "-p":
            pages = arg
        elif opt == "-h":
            print(usage())
    launcher(url, pages)

③:輸出幫助信息,增加代碼工具的可讀性和易用性。為了使輸出的信息更加美觀簡潔,可以通過轉(zhuǎn)義字符設(shè)置輸出字體顏色,從而實(shí)現(xiàn)所需效果。

開頭部分包含三個(gè)參數(shù):顯示方式,前景色,背景色。這三個(gè)參數(shù)是可選的,可以只寫其中一個(gè)參數(shù)。結(jié)尾可以省略,但為了書寫規(guī)范,建議以 “\033[0m” 結(jié)尾。

代碼如下:

print('\033[0:30;41m 3cH0 - Nu1L \033[0m')
print('\033[0:30;42m 3cH0 - Nu1L \033[0m')
print('\033[0:30;43m 3cH0 - Nu1L \033[0m')
print('\033[0:30;44m 3cH0 - Nu1L \033[0m')
# banner信息
def banner():
    print('\033[1:34m ################################ \033[0m\n')
    print('\033[1:34m 3cH0 - Nu1L \033[0m\n')
    print('\033[1:34m ################################ \033[0m\n')
# 使用規(guī)則
def usage():
    print('-h: --help 幫助;')
    print('-u: --url 域名;')
    print('-p --pages 頁數(shù);')
    print('eg: python -u "www.baidu.com" -p 100' + '\n')
    sys.exit()

④:確定搜索郵件的關(guān)鍵字,并調(diào)用bing_search()和baidu_search()兩個(gè)函數(shù),返回Bing與百度兩大搜索引擎的查詢結(jié)果。由獲取到的結(jié)果進(jìn)行列表合并,去重之后,循環(huán)輸出。

代碼如下:

# 漏洞回調(diào)函數(shù)
def launcher(url, pages):
    email_num = []
    key_words = ['email', 'mail', 'mailbox', '郵件', '郵箱', 'postbox']
    for page in range(1, int(pages)+1):
        for key_word in key_words:
            bing_emails = bing_search(url, page, key_word)
            baidu_emails = baidu_search(url, page, key_word)
            sum_emails = bing_emails + baidu_emails
            for email in sum_emails:
                if email in email_num:
                    pass
                else:
                    print(email)
                    with open('data.txt', 'a+')as f:
                        f.write(email + '\n')
                    email_num.append(email)

⑤:用Bing搜索引擎進(jìn)行郵件爬取。Bing引擎具有反爬防護(hù),會通過限定referer、cookie等信息來確定是否網(wǎng)頁爬取操作。

可以通過指定referer與requeses.session()函數(shù)自動獲取cookie信息,繞過Bing搜索引擎的反爬防護(hù)。

代碼如下:

# Bing_search
def bing_search(url, page, key_word):
    referer = "http://cn.bing.com/search?q=email+site%3abaidu.comsp=-1pq=emailsite%3abaidu.comfirst=1FORM=PERE1"
    conn = requests.session()
    bing_url = "http://cn.bing.com/search?q=" + key_word + "+site%3a" + url + "qa=nsp=-1pq=" + key_word + "site%3a" + url +"first=" + str((page-1)*10) + "FORM=PERE1"  
    conn.get('http://cn.bing.com', headers=headers(referer))
    r = conn.get(bing_url, stream=True, headers=headers(referer), timeout=8)
    emails = search_email(r.text)
    return emails

⑥:用百度搜索引擎進(jìn)行郵件爬取。百度搜索引擎同樣設(shè)定了反爬防護(hù),相對Bing來說,百度不僅對referer和cookie進(jìn)行校驗(yàn),還同時(shí)在頁面中通過JavaScript語句進(jìn)行動態(tài)請求鏈接,從而導(dǎo)致不能動態(tài)獲取頁面中的信息。

可以通過對鏈接的提取,在進(jìn)行request請求,從而繞過反爬設(shè)置。

代碼如下:

# Baidu_search
def baidu_search(url, page, key_word):
    email_list = []
    emails = []
    referer = "https://www.baidu.com/s?wd=email+site%3Abaidu.compn=1"
    baidu_url = "https://www.baidu.com/s?wd=" + key_word + "+site%3A" + url + "pn=" + str((page-1)*10)
    conn = requests.session()   
    conn.get(baidu_url, headers=headers(referer))
    r = conn.get(baidu_url, headers=headers(referer))
    soup = BeautifulSoup(r.text, 'lxml')
    tagh3 = soup.find_all('h3')
    for h3 in tagh3:
        href = h3.find('a').get('href')
        try:
            r = requests.get(href, headers=headers(referer))
            emails = search_email(r.text)   
        except Exception as e:
            pass
        for email in emails:
            email_list.append(email)
    return email_list

⑦:通過正則表達(dá)式獲取郵箱號碼。此處也可以換成目標(biāo)企業(yè)郵箱的正則表達(dá)式。

代碼如下:

# search_email
def search_email(html):
    emails = re.findall(r"[a-z0-9\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]" + html, re.I)
    return emails
# headers(referer)
def headers(referer):
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
        'Accept': 'application/json, text/javascript, */*; q=0.01',
        'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
        'Accept-Encoding': 'gzip, deflate, br',
        'Referer': referer
    }
    return headers

3、完整代碼:

# coding=gbk
import sys
import getopt
import requests
from bs4 import BeautifulSoup
import re


# 主函數(shù),傳入用戶輸入的參數(shù)
def start(argv):
    url = ""
    pages = ""
    if len(sys.argv)  2:
        print("-h 幫助信息;\n")
        sys.exit()
    # 定義異常處理
    try:
        banner()
        opts, args = getopt.getopt(argv, "-u:-p:-h")
    except:
        print('Error an argument')
        sys.exit()
    for opt, arg in opts:
        if opt == "-u":
            url = arg
        elif opt == "-p":
            pages = arg
        elif opt == "-h":
            print(usage())
    launcher(url, pages)


# banner信息
def banner():
    print('\033[1:34m ################################ \033[0m\n')
    print('\033[1:34m 3cH0 - Nu1L \033[0m\n')
    print('\033[1:34m ################################ \033[0m\n')


# 使用規(guī)則
def usage():
    print('-h: --help 幫助;')
    print('-u: --url 域名;')
    print('-p --pages 頁數(shù);')
    print('eg: python -u "www.baidu.com" -p 100' + '\n')
    sys.exit()


# 漏洞回調(diào)函數(shù)
def launcher(url, pages):
    email_num = []
    key_words = ['email', 'mail', 'mailbox', '郵件', '郵箱', 'postbox']
    for page in range(1, int(pages)+1):
        for key_word in key_words:
            bing_emails = bing_search(url, page, key_word)
            baidu_emails = baidu_search(url, page, key_word)
            sum_emails = bing_emails + baidu_emails
            for email in sum_emails:
                if email in email_num:
                    pass
                else:
                    print(email)
                    with open('data.txt', 'a+')as f:
                        f.write(email + '\n')
                    email_num.append(email)


# Bing_search
def bing_search(url, page, key_word):
    referer = "http://cn.bing.com/search?q=email+site%3abaidu.comsp=-1pq=emailsite%3abaidu.comfirst=1FORM=PERE1"
    conn = requests.session()
    bing_url = "http://cn.bing.com/search?q=" + key_word + "+site%3a" + url + "qa=nsp=-1pq=" + key_word + "site%3a" + url +"first=" + str((page-1)*10) + "FORM=PERE1"
    conn.get('http://cn.bing.com', headers=headers(referer))
    r = conn.get(bing_url, stream=True, headers=headers(referer), timeout=8)
    emails = search_email(r.text)
    return emails


# Baidu_search
def baidu_search(url, page, key_word):
    email_list = []
    emails = []
    referer = "https://www.baidu.com/s?wd=email+site%3Abaidu.compn=1"
    baidu_url = "https://www.baidu.com/s?wd=" + key_word + "+site%3A" + url + "pn=" + str((page-1)*10)
    conn = requests.session()
    conn.get(baidu_url, headers=headers(referer))
    r = conn.get(baidu_url, headers=headers(referer))
    soup = BeautifulSoup(r.text, 'lxml')
    tagh3 = soup.find_all('h3')
    for h3 in tagh3:
        href = h3.find('a').get('href')
        try:
            r = requests.get(href, headers=headers(referer))
            emails = search_email(r.text)
        except Exception as e:
            pass
        for email in emails:
            email_list.append(email)
    return email_list


# search_email
def search_email(html):
    emails = re.findall(r"[a-z0-9\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]" + html, re.I)
    return emails


# headers(referer)
def headers(referer):
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
        'Accept': 'application/json, text/javascript, */*; q=0.01',
        'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
        'Accept-Encoding': 'gzip, deflate, br',
        'Referer': referer
    }
    return headers


if __name__ == '__main__':
    # 定義異常
    try:
        start(sys.argv[1: ])
    except:
        print("interrupted by user, killing all threads ... ")

以上就是python中的被動信息搜集的詳細(xì)內(nèi)容,更多關(guān)于python 被動信息搜集的資料請關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • Python爬蟲之爬取二手房信息
  • Python爬取OPGG上英雄聯(lián)盟英雄勝率及選取率信息的操作
  • 基于python制作簡易版學(xué)生信息管理系統(tǒng)
  • Python如何利用正則表達(dá)式爬取網(wǎng)頁信息及圖片
  • 用python爬蟲爬取CSDN博主信息
  • python爬取企查查企業(yè)信息之selenium自動模擬登錄企查查
  • 使用python實(shí)現(xiàn)學(xué)生信息管理系統(tǒng)
  • python實(shí)現(xiàn)學(xué)生信息管理系統(tǒng)源碼
  • python 獲取計(jì)算機(jī)的網(wǎng)卡信息
  • python批量提取圖片信息并保存的實(shí)現(xiàn)
  • 利用Python實(shí)現(xiàn)學(xué)生信息管理系統(tǒng)的完整實(shí)例

標(biāo)簽:黃山 喀什 三沙 宿遷 欽州 濟(jì)南 臺灣 景德鎮(zhèn)

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python中的被動信息搜集》,本文關(guān)鍵詞  python,中的,被動,信息,搜集,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python中的被動信息搜集》相關(guān)的同類信息!
  • 本頁收集關(guān)于python中的被動信息搜集的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 好姑娘在线韩国电影| 五十路の完熟豊満无码| www.99reav.com| 折腰gl清汤涮香菜| 少妇高潮久久久久久精品一| 我与子的性关系自述| 王者荣耀舔大乔的下| 掀起衣服含着奶头H| 清纯大学生扒开双腿自慰| 蜜桃AV视频一区二区| 日本人妻A片免费看熟睡| 激情欧美性AAAAA片直播| 国产三级91| 国产porn在线| 91精品欧美产品免费观看| 国产成人无码精品AA一区96| 成 年 人 视频app免费无病毒 | 四级片在线观看| 色婷婷狠狠狠综合久久久久久| 害羞网| 黄色小说内容| 被C到呻吟的黄肉欲文小短文视频| 激情黄视频| 韩国一级a做片性全过程| 成人二人看AA片影院| 公下面又大又粗又舒服| 豆国产96在线|亚洲| 国产9191精品免费观看| 老张的春天免费阅读| 爱欲横流的芭蕾| 被糙汉合租室友肉到哭| 野外妓女B???BXXX| 欧美高级艳星videos| 成人国产欧美精品一区二区| 国外成品精品1688| 老师好大?好爽?再深| 美国式禁1?4在线观看| 女人与狥一级A片在线播放| 国产成人不卡亚洲精品91| 免费在线看a| 一个人看的免费高清视频日本|