urllib

No module named 'urllib.request'; 'urllib' is not a package

ぃ、小莉子 提交于 2019-12-17 03:42:31
想学爬虫urllib的设置代理服务器,于是把之前跳过没学的urllib捡起来,敲了段简单的代码,如下 import urllib.request url = "http://www.baidu.com" data = urllib.request.urlopen(url).read() data = data.decode('UTF-8') print(data) 然而执行后总是报错: Traceback (most recent call last): File "urllib.py", line 1, in <module> import urllib.request File "F:\python\urllib.py", line 1, in <module> import urllib.request ImportError: No module named 'urllib.request'; 'urllib' is not a package 尝试过用 from urllib import request,pip install urllib(想想好傻,urllib是python内置的库) 还是同样问题、保存py文件之后运行就提示 ImportError: No module named request。 但在python shell里面运行就正常。 多方查找

Python爬虫之cookie的获取,保存正确的使用【新手必学】

人走茶凉 提交于 2019-12-15 11:36:12
前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 作者:huhanghao Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)。 比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容,登陆前与登陆后是不同的,或者不允许的。另外如果你刚学不久。对这方面还不熟,建议先去小编的Python交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目可拿,多跟里面的人交流,比自己摸索效率更高哦! 在python中它为我们提供了cookiejar模块,它位于http包中,用于对Cookie的支持。通过它我们能捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。 ## cookie的获取 # -*- coding: UTF-8 -*- from urllib import request from http import cookiejar ​ if __name__ == '__main__': #声明一个CookieJar对象实例来保存cookie cookie

Python:urllib.request的5个基本程序

爷,独闯天下 提交于 2019-12-14 09:51:16
Python:urllib.request的5个基本程序 一、基础版 二、异常处理版 三、User-Agent版 四、IP代理版 五、Cookie版 六、总结 一、基础版 from urllib import request # 读取主页源码 url = "http://www.baidu.com/" # url = "https://www.baidu.com/" html = request.urlopen(url) code = html.read().decode("UTF_8") file = open("1.html", "w", encoding='UTF-8') file.write(str(code)) file.close print(code) http请求方法 描述 GET 向指定url发送请求,返回网页的html代码 POST 向指定url提交数据,由服务端进行处理并返回结果。 http请求 / 响应过程 操作 1 客户端(浏览器)解析URL地址,将域名转换成IP 2 客户端(浏览器)与服务端(服务器)建立TCP/IP连接 3 客户端(浏览器)发送http请求,请求报文包括请求行(请求方式、URL、协议版本)、请求头部、空行和请求数据 4 服务端(服务器)响应请求返回数据,响应报文包括状态行、消息报头、空行和响应正文 5 服务端(服务器)释放TCP连接 6

Login on a site using urllib

自闭症网瘾萝莉.ら 提交于 2019-12-14 04:16:26
问题 I'm trying to get information from this site http://cheese.formice.com/maps/@5865339 , but when i request using urllib.urlopen, its says that i need to login, i was using this code: import urllib data = { 'login':'Cfmaccount', 'password':'tfmdev321', 'submit':'Login', } url = 'http://cheese.formice.com/login' data = urllib.urlencode(data) response = urllib.urlopen(url, data) What i'm doing wrong? 回答1: It's not using urllib directly, but you may find it easier working with the requests package

Set the header in urllib.request python 3

怎甘沉沦 提交于 2019-12-14 04:07:57
问题 What is the meaning of body (refers to?) in the code below? headers = ['Content-length']=str(len(bytes(body, 'utf-8'))) return urllib.request.Request(theurl, bytes(body, 'utf-8'), headers) Sourse : BadStatusLine exception raised when returning reply from server in Python 3 来源: https://stackoverflow.com/questions/38418477/set-the-header-in-urllib-request-python-3

urllib freeze if url is too big !

拥有回忆 提交于 2019-12-14 03:58:30
问题 ok im trying to open a url using urllib but the problem is that the file is too big, so when i open the url python freezes, im also using wxpython which also freezes when i open the url my cpu goes to almost 100% when the url is opened any solutions ? is there a way i can open the url in chunks and maybe have a time.sleep(0.5) in there so it does not freeze ? this is my code : f = open("hello.txt",'wb') datatowrite = urllib.urlopen(link).read() f.write(datatowrite) f.close() Thanks 回答1: You

零基础学 Python爬虫(11):urllib 基础使用(一)

五迷三道 提交于 2019-12-14 00:00:43
人生苦短,我用 Python 引言 看到本篇实战的同学有没有很激动,经过了前面十篇基础内容的折磨,终于等到实战章节了,有没有一种激动之情。 想到一句歌词:终于等到你~~~ 首先,官方文档地址敬上: 官方文档地址: https://docs.python.org/3/library/urllib.html 在前面的前置准备中,我们一起安装了很多第三方的请求类库,在介绍这些第三方的类库前,我们先介绍一下 Python3 本身自带的一个 HTTP 请求库 urllib 。 urllib urllib 是一个软件包,它包含了几个用于处理 URL 的模块: request: 基础的 HTTP 请求模块。 error: 异常处理模块。 parse: 用于解析 URL 的模块。 robotparser: 识别网站中 robots.txt 文件。 urllib.request 如果要说怎么学习最快,当然是查看官方文档,首先祭出官方文档的地址。 urllib.request官方文档: https://docs.python.org/3/library/urllib.request.html#module-urllib.request 这里的解释是最权威了,并且目前已经提供了中文版本,不过那个翻译看起来像是机器翻译的,质量并不高。 如果实在看不懂,就只能看小编 XBB 了。 urlopen

Cookies with urllib

自古美人都是妖i 提交于 2019-12-13 22:41:31
问题 This will probably seem like a really simple question, and I am quite confused as to why this is so difficult for me. I would like to write a function that takes three inputs: [url, data, cookies] that will use urllib (not urllib2) to get the contents of the requested url. I figured it'd be simple, so I wrote the following: def fetch(url, data = None, cookies = None): if isinstance(data, dict): data = urllib.urlencode(data) if isinstance(cookies, dict): # TODO: find a better way to do this

Python3: HTTP Error 302 while using urllib

不羁岁月 提交于 2019-12-13 15:16:30
问题 I want to read the value of different stocks from websites. Therefore I wrote this tiny script, which reads the page source and then parses out the value: stock_reader.py #!/usr/bin/env python3 # -*- coding: utf-8 -*- from re import search from urllib import request def main(): links = [ [ 'CSG', 'UBS', ], [ 'http://www.tradegate.de/orderbuch.php?isin=CH0012138530', 'http://www.tradegate.de/orderbuch.php?isin=CH0244767585', ], ] for i in in range(len(links[0])): url = links[1][i] htmltext =

why url works in browser but not using requests get method

瘦欲@ 提交于 2019-12-13 09:41:04
问题 while testing, I just discovered, that this url = ' http://wi312.rockdizfile.com/d/uclf2kr7fp4r2ge47pcuihdpky2chcsjur5nrds2hx53f26qgxnrktew/Kimbra%20-%20Love%20in%20High%20Places.mp3' works in browser and file download begins but if i try to fetch this file using requests.get(url) it gives massive error ... any clue why is this happening ? do in need to decode this to make it working? Update this is the error I keep getting: Exception in thread Thread-5: Traceback (most recent call last):