使用Splinter模拟网页操作
之前需要用代码来代替一些繁琐重复的网页操作,自然想到用Python自动化这些工作。
然后找到了这篇文章。它用了Splinter,一个Selenium的包装。尝试之后发现意外地简单。
内容大同小异,说明几个坑。
我用的是Py3.6和Chrome.
Chrome驱动
需要提前在这里下载Chrome的驱动,再把下载到的chromedriver.exe
放到Python代码的目录下。就可以使用了。
1 | executable_path = {'executable_path': 'chromedriver.exe'} |
技巧
browser.driver.execute_script("window.open('');")
新建Tabbrowser.windows.current = browser.windows[0]
切换TabPandas
读数据:1
2
3
4
5def get_dict(name):
my_df = pd.read_csv(name)
titles = my_df['Title'].tolist()
links = my_df['Link'].tolist()
return {titles[i]: links[i] for i in range(0, len(titles))}
用Splinter和Selenium完成一些简单的签到、爬数据还算方便,不需要理会用爬虫时Cookie、异步、认证等问题。
开头提到的文章中讲的太详细以致于我已无法可说了。