好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > HTML轉義字符&npsp;表示non-breaking space \xa0

HTML轉義字符&npsp;表示non-breaking space \xa0

熱門標簽:高德地圖標注常顯 鶴壁外呼系統公司 華創e路航彩票銷售點地圖標注 承德地圖標注公司收費 銀川語音外呼系統中心 臨沂ai電銷機器人招商 揭陽電腦外呼系統公司 外呼系統號顯示星號怎么看 suitecrm 地圖標注

1.參考

Beautiful Soup and Unicode Problems

詳細解釋

unicodedata.normalize('NFKD',string) 實際作用???

Scrapy : Select tag with non-breaking space with xpath

>>> selector.xpath(u'''
... //p[normalize-space()]
... [not(contains(normalize-space(), "\u00a0"))]

normalize-space() 實際作用???

In [244]: sel.css('.content')
Out[244]: [Selector xpath=u"descendant-or-self::*[@class and contains(concat(' ', normalize-space(@class), ' '), ' content ')]" data=u'p class="content text-

BeautifulSoup下Unicode亂碼解決

今天在用scrapy爬某個網站的數據,其中DOM解析我用的是BeautifulSoup,速度上沒有XPath來得快,不過因為用了習慣了,所以一直用的bs,版本是bs4
不過在爬取過程中遇到了一些問題,其中一個是Unicode轉碼問題,這也算是python中一個著名問題了。
我遇到的算是BeautifulSoup中的一個奇葩bug吧,在網頁中經常會有 nbsp 這種標記,稱為 non-breaking space character, 本來這個應該是忽略的,但在bs中會把這個符號
轉義成為一個unicode編碼 \xa0, 這就導致了后面如果要對內容處理的話會出現UnicodeError, 特別是如果使用的是Console或者scrapy中寫文件、寫數據庫的pipeline操作時,
出現無法轉義的錯誤。
那么該如何解決呢,其實不難

s = u'\xa0'
s.replace(u'\xa0', u'')

之后就可以對s進行encode,比如:

s = u'\xa0'
s.replace(u'\xa0', u'').encode('utf-8')

特別是在我的項目中,如果需要把數據寫到MongoDB中,這個bug fix完后,寫數據立刻搞定,爬取的內容全部寫到MongoDB中。

s.replace(u'\xa0', u'').encode('utf-8')

2.問題定位

https://en.wikipedia.org/wiki/Comparison_of_text_editors

定位元素顯示為 npsp;

網頁源代碼表示為 #160;

tr>
td style="background: #FFD; color: black; vertical-align: middle; text-align: center;" class="partial table-partial">memory/td>
td>= Limited by available memory #160;#160;/td>
td style="background:#F99;vertical-align:middle;text-align:center;" class="table-no">No (64#160;KB)/td>
td>= Some limit less than available memory (give max size if known)/td>
/tr>
/table>

實際傳輸Hex為:

不間斷空格的unicode表示為 u\xa0',保存的時候編碼 utf-8 則是 '\xc2\xa0'

In [211]: for tr in response.xpath('//table[8]/tr[2]'):
...: print [u''.join(i.xpath('.//text()').extract()) for i in tr.xpath('./*')]
...:

[u'memory', u'= Limited by available memory \xa0\xa0', u'No (64\xa0KB)', u'= Some limit less than available memory (give max size if known)']

In [212]: u'No (64\xa0KB)'.encode('utf-8')
Out[212]: 'No (64\xc2\xa0KB)'

In [213]: u'No (64\xa0KB)'.encode('utf-8').decode('utf-8')
Out[213]: u'No (64\xa0KB)'

保存 csv 直接使用 excel 打開會有亂碼(默認ANSI gbk 打開???,u'\xa0' 超出 gbk 能夠編碼范圍???),使用記事本或notepad++能夠自動以 utf-8 正常打開。

使用記事本打開csv文件,另存為 ANSI 編碼,之后 excel 正常打開。超出 gbk 編碼范圍的替換為'?'

3.如何處理

.extract_first().replace(u'\xa0', u' ').strip().encode('utf-8','replace')

以上就是HTML轉義字符npsp;表示non-breaking space \xa0的詳細內容,更多關于HTML轉義字符\xa0的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • Python 字符串處理特殊空格\xc2\xa0\t\n Non-breaking space

標簽:忻州 七臺河 萊蕪 許昌 三沙 汕尾 棗莊 咸寧

巨人網絡通訊聲明:本文標題《HTML轉義字符&npsp;表示non-breaking space \xa0》,本文關鍵詞  HTML,轉義,字符,amp,npsp,表示,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《HTML轉義字符&npsp;表示non-breaking space \xa0》相關的同類信息!
  • 本頁收集關于HTML轉義字符&npsp;表示non-breaking space \xa0的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 美女张开腿双腿让男人桶| 秋霞电影网第2集播出时间 | 冲田杏梨爆乳AV在线观看| 黄色片免费在线观看视频| 亚洲 国产 日韩 在线 一区| 客厅也啪啪厨房也啪啪女| 亚洲欧美国产毛片在线| 特a级毛片| 2o岁lo69gay男同志| 嗯…啊摸湿内裤漫画| 全黄色一级片| 女s私奴调教日记| 国产亚洲美女精品久久| 毛片试看| 日韩做a爰片久久毛片A片小说 | 精品国产乱子伦一区| 偷窥女厕正面小便| 小智?沙奈朵18禁污污| 操你逼| 真人男女做爰全部视频| 777国产区一区二区三区国产| 真实摄像头偷拍在线观看| 清冷受被室友c哭高干H| 性事咨询员在线观看| 97人妻精品一区二区三区软件| 人与禽一级A片一区二区三区| 三级黄色免费看| xnnx日本| 黑人太大太粗太硬太深了受不了了| 韩漫无遮韩漫?免费网址肉| 日本19禁大尺度无遮挡| 国产人妻久久久久久精品动漫| 欧美色网在线| 嗯嗯高h| mvg035黑人波多野结衣| 600图库大全免费资料图| 久久久久久久国产精品毛片| 亚洲 欧美 国产 综合首页| 9X9x9×人成品免费观看 | 是自己坐上来还是我撞上去| 苹果未测减除全版本|