如何修改Jupyter Notebook的默认目录和默认浏览器

一、修改默认目录

Jupyter Notebook的文件默认保存目录是C:\Users\Administrator,默认目录可在黑窗口中查看,如下图所示:

为了方便文档的管理,可将默认目录修改成自己想保存的地方。修改方法如下:

1、找到config文件

按“Windows+R”打开"运行"窗口,输入“cmd”,在打开的窗口中输入命令:jupyter notebook --generate-config,然后回车,显示config文件的路径。

2、按照上图所示的路径找到文件名为“jupyter_notebook_config.py”的一个py文件,单击鼠标右键,用NotePad++打开(用记事本打开也可以)。

3、点击“搜索”-->“查找”,在查找目标中输入“directory”,找到代码行“# c.NotebookApp.notebook_dir = ''”​。

4、修改路径。 将上图中202代码行前面的#删除,在后添加文档的保存路径。修改后保存退出。

5、打开文件位置。

6.修改属性

右击-->属性-->删除目标中的““%USERPROFILE%/””-->应用-->确定

 

 

重启JupyterNotebook,默认目录就修改了。

二、修改默认浏览器

1、还是在用NotePad++打开的“jupyter_notebook_config.py”文件中,找到76行“#c.NotebookApp.browser = ''”

2、在其下面添加语句:

 import webbrowser

 webbrowser.register("chrome", None, webbrowser.GenericBrowser(u"C:\\Program Files (x86)\\Google\\Chrome\\Application\\chrome.exe"))

c.NotebookApp.browser = 'chrome'

3、保存退出,重启JupyterNotebook。

Scrapy是一个强大的Python爬虫框架,用于快速、高效地从网页中提取数据。下面是一个使用Scrapy的爬虫案例。 假设目标是从一个电子商务网站上获取商品的名称、价格评论。首先,需要创建一个Scrapy项目。在命令行中输入以下命令: ``` scrapy startproject ecommerce ``` 会生成一个名为ecommerce的文件夹,其中包含Scrapy项目的基本结构。接下来,进入项目文件夹并创建一个爬虫: ``` cd ecommerce scrapy genspider products example.com ``` 这里创建了一个名为products的爬虫,爬取的网站是example.com。进入爬虫文件`products.py`,可以看到Scrapy自动生成的代码。在`parse`方法中,可以编写代码来提取需要的数据。 首先,需要确定要提取数据的网页结构。使用Chrome浏览器的开发者工具,可以查看网页的HTML结构。根据需要提取的数据,可以使用XPath或CSS选择器来定位元素。比如,要提取商品的名称价格,可以使用以下代码: ``` def parse(self, response): products = response.xpath('//div[@class="product"]') for product in products: name = product.xpath('.//h2/text()').get() price = product.xpath('.//span[@class="price"]/text()').get() yield { 'name': name, 'price': price } ``` 这个代码会在网页中查找所有`class`属性为`product`的`div`元素,并提取每个商品的名称价格。 接下来,需要配置爬虫的URL启动设置。在项目文件夹中的`settings.py`文件中,可以设置爬虫的起始URL其他的配置参数。 最后,运行爬虫并保存数据。在命令行中输入以下命令: ``` scrapy crawl products -o data.json ``` 这个命令会运行名为products的爬虫,并将提取的数据保存在data.json文件中。 以上就是一个使用Scrapy爬虫框架的简单案例。通过编写适当的代码,可以根据需要从网页中提取所需的数据。Scrapy提供了丰富的功能灵活的配置选项,使得爬虫开发变得更加容易高效。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值