win10写Python脚本删除数据库数据

1.安装python

地址:python安装

2.安装PyMySQL

在dos下进入python的Scripts目录:

执行:pip install PyMySQL

3.编写py文件

我的内容如下:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import pymysql

db=pymysql.connect("rm-uf6il7eb0xs91srzkso.mysql.rds.aliyuncs.com","appuser","PHI!e2eNet4u","smart_hardware")
cursor=db.cursor()
# 修改此处手机号码
phonenumber = "13611923025"
# SQL插入语句
sql1='SELECT * FROM dbname.account WHERE phonenumber = "'+phonenumber+'"'
sql2='DELETE FROM dbname.account_data WHERE uid = (SELECT uid FROM dbname.account WHERE phonenumber = "'+phonenumber+'")'

try:
 # 执行sql语句
 cursor.execute(sql1)
 cursor.execute(sql2)
 # 获取全部查询结果,取一条为 fetchone()
 #result = cursor.fetchall() 
 #print(result)
 # 提交到数据库
 db.commit()
 except:
 # 发生错误时回滚
 db.rollback()
 # 关闭数据库连接
 db.close()

4.执行

dos进入py文件所在的盘符,执行python xx.py

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,我可以为你讲解一下使用 Python 爬取指定网站数据的基本流程。 首先,我们需要使用 Python 的第三方库 requests 来发起 HTTP 请求,并使用 lxml 或 BeautifulSoup 解析响应的 HTML 页面。 然后,你可以使用 XPath 或 CSS 选择器来定位到你想要提取的数据,并提取它。 接下来,你可以将提取的数据存储到本地文件数据库中,或者将它用于其他用途。 下面是一个使用 requests 和 BeautifulSoup 爬取网站标题的示例代码: ``` import requests from bs4 import BeautifulSoup # 发起请求并获取响应 response = requests.get('https://www.example.com') html = response.text # 使用 BeautifulSoup 解析 HTML 页面 soup = BeautifulSoup(html, 'lxml') # 提取网站标题 title = soup.title.string print(title) ``` 希望这对你有帮助。 ### 回答2: 通过使用Python脚本进行网页爬取数据是一种非常常见且实用的技术。以下是一个使用Python脚本爬取指定网站页面数据的示例: 首先,我们需要安装Python的一个第三方库,称为"Requests"。这个库可以帮助我们发送HTTP请求,从而获取网站的HTML内容。可以通过运行以下命令进行安装: ``` pip install requests ``` 接下来,我们需要使用Python脚本导入"Requests"库,并指定要爬取的网址。我们还可以通过添加一些HTTP头部信息来伪装成浏览器发送请求。例如,我们可以添加"User-Agent"头部字段来模拟浏览器: ```python import requests url = "https://example.com" headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} response = requests.get(url, headers=headers) ``` 现在,我们可以使用"response"对象来访问从网站获取的HTML内容。我们可以通过调用"response.text"来获取HTML文档的字符串形式,然后使用其他Python库(如"Beautiful Soup")来解析和提取所需的数据。例如,我们可以通过以下代码,将HTML文档的标题提取出来: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, "html.parser") title = soup.title.string print(title) ``` 这只是一个简单示例,说明了如何使用Python脚本爬取指定网站页面的数据。实际上,我们可以根据网站的不同结构和数据提取需求,使用不同的解析库和技术来处理和提取数据。同时,为了遵守网站的规则和法律,我们还需要遵循爬虫道德和使用协议。 ### 回答3: 以爬取豆瓣电影排行榜Top250为例。 首先,需要安装Python的爬虫库requests和解析库BeautifulSoup。打开终端或命令行界面,执行以下命令进行安装: ``` pip install requests beautifulsoup4 ``` 接下来,在Python脚本中导入所需的库: ```python import requests from bs4 import BeautifulSoup ``` 然后,指定要爬取的网页URL,并使用requests库发送GET请求获取网页的HTML内容: ```python url = "https://movie.douban.com/top250" response = requests.get(url) ``` 接下来,使用BeautifulSoup库对获取到的HTML内容进行解析,并提取出需要的数据: ```python soup = BeautifulSoup(response.text, "html.parser") ``` 在豆瓣电影排行榜页面上,每个电影的信息都包含在一个class为"item"的div元素中。可以使用select方法根据CSS选择器提取出所有的电影信息: ```python movies = soup.select(".item") ``` 接下来,可以遍历movies列表,提取出每个电影的名称、评分、导演等信息: ```python for movie in movies: title = movie.select(".title")[0].text rating = movie.select(".rating_num")[0].text directors = movie.select(".bd .info span")[0].text print("电影名称:", title) print("评分:", rating) print("导演:", directors) print("--------------------") ``` 最后,在命令行中执行Python脚本,即可获取到豆瓣电影排行榜Top250的电影名称、评分和导演信息。 以上就是指定网站页面使用Python脚本爬取数据的一个实例。通过发送HTTP请求获取网页内容,再通过解析库提取需要的数据,可以实现对网页数据的爬取和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值