一、代码"""通用代码框架:可使网页爬取变得更稳定更有效下面是一个爬取百度网页的例子,正常情况下是返回"""import requestsdef get_HTML_Text(): try: r = requests.get(url, timeout=30) r.raise_for_status() # 若状态不是200,引发HTTPError异常 r.encoding = r.apparent_encoding return r.text except: return '产生异常!'if __name__ == '__main__': url = "http://www.baidu.com" print(get_HTML_Text()
二、结果分析正常情况:其实去掉三个www中的一个也会正常
异常情况1:
异常情况2:
异常情况3:
三、总结异常情况的原因多样,通用代码框架并不能包含全部异常,代码写正确才是王道
来源:https://www.cnblogs.com/kekefu/p/12388338.html