南开22年11月《网络爬虫与信息提取》在线作业满分

[复制链接]
发表于 2022-11-8 13:42:43 | 显示全部楼层 |阅读模式
22秋学期(高起本1709-1803、全层次1809-2103)《网络爬虫与信息提取》在线作业
1.[单选题] Scrapy自带的待爬队列是()
答案资料下载请参考帮助中心说明
    A.deque
    B.queue
    C.list
    D.lqueue
    答:——A——
2.[单选题] Python正则表达式模块的findall方法提取内容包含多个,则返回结果的列表中会包含()
    A.列表
    B.元组
    C.字典
    D.集合
    答:——B——
3.[单选题] Redis是一个开源的使用()语言编写
    A.ANSI C
    B.C++
    C.JAVA
    D.Python
    答:——A——
4.[单选题] Python写CSV文件需要哪个方法()
    A.CSVWriter
    B.CsvWriter
    C.DictWriter
    D.FileWriter
    答:————
5.[单选题] 使用Xpath构造属性值包含相同字符串的路径采用()方法
    A.contain
    B.contains
    C.include
    D.includes    四川大学答案  q7 6 1 2 9 6 0 2 1
    答:————
6.[单选题] 以下关于Charles的说法正确的是( )
    A.Charles是一个跨平台的HTTP抓包工具,可以截取HTTP或者HTTPS请求的数据包
    B.Charles有Windows 32/64版和Linux 64 版,但是目前还没有对Mac OS进行有效的支持。
    C.Charles上面滚动的数据就是目前计算机发起的数据包。单击工具栏上面的黄色笤帚图标,可以清停止抓包。
    D.在Charles启动时,系统自带浏览器的部分HTTP流量不会经过Charles。
    答:————
7.[单选题] Redis中写数据到列表中,使用关键字()
    A.push
    B.append
    C.lpush
    D.lappend
8.[单选题] 打开终端,输入(),屏幕上会出现Python的路径
    A.python path
    B.path python
    C.which python
    D.python which
9.[单选题] Python中跳过本次循环应用关键字()
    A.break
    B.continue
    C.exit
    D.return
    答:————
10.[单选题] Chrome的开发者工具中哪个选项可以查找到cookies
    A.Elements
    B.Sources
    C.Network
    D.Peformance
    答:————
11.[单选题] 下列哪项不是HTTP的请求类型()
    A.GET
    B.POST
    C.PUT
    D.SET
    答:————
12.[单选题] 通常使用()工具来模拟浏览器进行爬虫请求
    A.Selenium
    B.Chrome
    C.ChromeDriver
    D.WebDriver
    答:————
13.[单选题] chrome默认打开开发者工具的快捷是
    A.F5
    B.F11
    C.F12
    D.F2
    答:————
14.[单选题] Python中专门用来处理图像的第三方库是
    A.lxml
    B.Pillow
    C.beautifulsoup
    D.pytesseract
15.[单选题] 要想让Scrapy结合Redis,应该对Scrapy爬虫请求的调度算法进行修改,以下哪种修改不能完成这一任务?()
    A.队列
    B.栈
    C.上锁
    D.优先级队列
16.[单选题] 以下表示请求资源重定向的HTTP状态码为
    A.200
    B.301
    C.404
    D.500
17.[单选题] 请问按哪个键可以打开Chrome自带的开发者工具()
    A.F10
    B.F1
    C.F11
    D.F12
    答:————
18.[单选题] 如果使用Python的数据结构来做类比的话,MongoDB中库相当于一个()
    A.列表
    B.元组
    C.字典
    D.集合
    答:————
19.[单选题] 执行下面代码,结果为():
name_list = []
if name_list and name_list[100] == '张三':
  print('OK')
    A.程序报错
    B.OK
    C.NULL
    D.无输出
    答:————
20.[单选题] 使用UI Automatorr判断元素是否存在的操作是得到相应控件后使用命令()
    A.exist
    B.exists
    C.isnull
    D.contains
    答:————
21.[多选题] 为了解决爬虫代码本身的错误引起的异常,可以采用下列哪些方法
    A.仔细检查代码
    B.开发爬虫中间件
    C.开发下载器中间件
    D.等待
    答:————
22.[多选题] 使用BeautifulSoup对象后可以使用()来查找内容
    A.find_all
    B.find
    C.search
    D.search_all
    答:————
23.[多选题] MongoDB中获取名字为set1的集合的语句为()
    A.database.set1
    B.database('set1')
    C.database['set1']
    D.database{'set1'}
    答:————
24.[多选题] 以下哪些可以独立成为Python编译器()
    A.Pycharm
    B.IDLE
    C.Eclipse
    D.Visual Studio 2010
    答:————
25.[多选题] 使用Selennium获取网页中元素的方法有
    A.find_element_by_name
    B.find_element_by_id
    C.find_elements_by_name
    D.find_elements_by_id
    答:————
26.[多选题] 下列关于在IOS上配置charles的说法正确的是()
    A.不同ios设备之间会有比较大的差别,所以配置的时候需要找到对应的安装证书的入口。
    B.手机和电脑需要在同一个局域网下。
    C.HTTP代理可以使用“自动”选项。
    D.安装好证书以后,打开iOS设备上的任何一个App,可以看到Charles中有数据包在流动
    答:————
27.[多选题] 网络爬虫的用途有()
    A.收集数据
    B.尽职调查
    C.提高流量
    D.攻击服务器
    答:————
28.[多选题] PyMongo删除操作有()
    A.delete
    B.delete_all
    C.delete_one
    D.delete_many
    答:————
29.[多选题] PyMongo更新操作有()
    A.update
    B.update_all
    C.update_one
    D.update_many
    答:————
30.[多选题] BS4可以用来从()中提取数据
    A.HTML
    B.XML
    C.数据库
    D.JSON
    答:————
31.[判断题] 在charles中使用CTRL+F搜索,JSON里面的中文是可以直接搜索到的。
    A.对
    B.错
    答:————
32.[判断题] 使用UI Automatorr操作实体键的命令为device.press.实体按键名称()
    A.对
    B.错
    答:————
33.[判断题] 代理中间件的可用代理列表一定要写在settings.py里面
    A.对
    B.错
    答:————
34.[判断题] 引用中间件时后面的数字代表的是中间件的执行顺序,例如  'AdvanceSpider.middlewares.ProxyMiddleware': 543 中的543
    A.对
    B.错
    答:————
35.[判断题] 如果把网络上发送与接收的数据包理解为快递包裹,那么在快递运输的过程中取出查看更改里面的内容,就是类似抓包的过程
    A.对
    B.错
36.[判断题] 对Charles设置代理时,Ip可以设置为127.0.0.1,端口为8888.
    A.对
    B.错
37.[判断题] Scrapy每一次发起请求之前都会在这里检查网址是否重复。因此如果确实需要再一次爬取数据,在Redis中把这个Key删除即可。
    A.对
    B.错
    答:————
38.[判断题] 使用异步加载技术的网站,被加载的内容可以在源代码中找到
    A.对
    B.错
    答:————
39.[判断题] ”curl http://爬虫服务器IP地址:6800/cancel.json -d project=工程名 -d job=爬虫JOBID“该命令的作用是启动爬虫
    A.对
    B.错
    答:————
40.[判断题] Redis中使用lrange读取数据后数据也会删除
    A.对
    B.错
    答:————
41.[判断题] 在Ubuntu下若要运行Redis可以使用CMD进入解压以后的文件夹并运行命令redis-server.exe redis.windows.conf启动Redis
    A.对
    B.错
    答:————
42.[判断题] 需要登录的网站一般通过GET请求就可以实现登录。
    A.对
    B.错
    答:————
43.[判断题] 爬虫中间件的激活需要另外写一个文件来进行
    A.对
    B.错
    答:————
44.[判断题] requests中post请求方法的使用为requests.post('网址', data=data)
    A.对
    B.错
    答:————
45.[判断题] 数据抓包就是中间人爬虫的一个简单应用。所以使用Charles也是一种中间人攻击
    A.对
    B.错
    答:————
46.[判断题] 数据在MongoDB中是按照“库(Database)”—“集合(Collections)”—“文档(Document)”的层级关系来存储的。
    A.对
    B.错
47.[判断题] 如果目标网站本身就是提供公众查询服务的网站,那么使用爬虫是合法合规的。
    A.对
    B.错
    答:————
48.[判断题] HTTP状态码中303状态码明确表示客户端应当采用POST方法获取资源
    A.对
    B.错
    答:————
49.[判断题] MongoDB是一个关系数据库产品
    A.对
    B.错
    答:————
50.[判断题] HTTP状态码302与307完全同义。
    A.对
    B.错
    答:————

附件是答案,转载注明 无忧答案网
快速回复 返回顶部 返回列表