电影里面的英语

Absolutely!—— 绝对正确!
Adorable! —— 可爱极了!
Amazing! —— 太神了!
Anytime! —— 随时吩咐!
Almost! —— 差不多了!
Awful! —— 好可怕呀!

After you. —— 您先。
About when? —— 大约何时?
All set? —— 一切妥当?
Allow me! —— 让我来!

Baloney! —— 胡扯!荒谬!
Behave! —— 放尊重点!
Bingo! —— 中了!
Boring! —— 真无聊!
Bravo! —— 太棒了!
Bullshit! —— 胡说!

Cheers! —— 干杯!
Congratulations! —— 恭喜啊!
Correct! —— 对的!
Crazy! —— 疯了!

Damn! —— 该死的!
Deal! —— 一言为定!
Definitely! —— 当然!
Disgusting! —— 好恶心呀!
Drat! —— 讨厌!

Encore! —— 再来一次!
Exactly! —— 完全正确!

Fantastic! —— 妙极了!
Farewell! —— 再见啦!
Fifty-fifty! —— 对半分!
Foul! —— 犯规了!
Fresh! —— 好有型!帅!

Gesundheit! —— 保重!(特别用于对打喷嚏的人说)
Gone! —— 跑了!
Gorgeous! —— 美极了!
Great! —— 太好了!

Hey! —— 嘿!
Hopefully! —— 希望如此!有希望的话...
Horrible! —— 好可怕!
Hot! —— 好辣!
Hurray!/Hurrah! —— 万岁!
Hush! —— (肃静)嘘!
Hurry! —— 快点!

Incredible! —— 不可思议!
Indeed? —— 真的? Jesus! —— 天啊!

Liar! —— 你撒谎!
Listen! —— 听着! Lousy! —— 差劲!

Marverllous! —— 棒极了!
Now! —— 现在就做!

Objection! —— 我抗议!
Outrageous! —— 不得了!
Pardon! —— 请再说一遍!
Perfect! —— 很完美!
Please! —— 拜托了!
Present! —— 到(有)!(用于点名时)
Probably! —— 很可能!

Rats! —— 差劲!
Really? —— 真的?
Relax! —— 放轻松!
Right! —— 对的!

Satisfied? —— 满意吗?
Shhh... —— 嘘...
So so! —— 马马虎虎!
Someday! —— 改天吧!
Speaking! —— (打电话时)我就是!
Still? —— 仍是这样?
Stingy! —— 小气鬼!
Stop! —— 停!
Superb! —— 棒极了!
Sure! —— 当然!
Surprise! —— 给你一个惊喜!

Terrible! —— 好可怕!
Thirsty? —— 渴吗!
Toast! —— 干杯!
Try! —— 去试一下!

Unbelievable! —— 难以置信!
Understand? —— 明不明白?
Unisex? —— 男女通用的?

Wait! —— 等一等!
Well? —— 怎么样?
Willingly—— 很乐意!
Wow! —— 哇!

Yum... —— 恩...(好吃!)

Imagine! —— 想想看!
Impossible! —— 不可能吧!
Impressive! —— 很感人,永生难忘!
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我理解到您想要使用爬虫技术爬取https://spa1.scrape.center/网站上的100部电影的信息,并将数据按照指定的格式存储到本地文件夹中。我将为您提供下面的步骤: 1. 安装必需的Python库 您需要安装以下Python库: - requests - beautifulsoup4 您可以使用pip安装它们。在命令行中输入以下命令: ``` pip install requests beautifulsoup4 ``` 2. 编写爬虫程序和存储程序 您可以使用requests库向https://spa1.scrape.center/网站请求数据,并使用beautifulsoup4库从HTML响应中提取100部电影的信息。然后,您可以将信息按照指定的格式保存到本地文件夹中。 下面是一个示例程序,您需要自行修改以根据要求存储信息到文件夹中。请将这个代码复制到一个Python文件中(program.py),并运行它以爬取和保存数据。 ```python import os import requests from bs4 import BeautifulSoup import json # 请求页面 url = "https://spa1.scrape.center/" response = requests.get(url) soup = BeautifulSoup(response.content, "html.parser") # 提取前10页的URL urls = [] for i in range(10): urls.append(url + f'/?page={i+1}') # 提取每个电影的信息 movies = [] for url in urls: response = requests.get(url) soup = BeautifulSoup(response.content, "html.parser") for movie in soup.select(".el-card"): # 提取电影信息 name = movie.select(".name")[0].text category = movie.select(".category")[0].text.strip() location = movie.select(".location")[0].text.strip() cover = movie.select("img")[0].attrs["src"] detail_url = movie.select(".name > a")[0].attrs["href"] # 请求电影详情页面 detail_response = requests.get(detail_url) detail_soup = BeautifulSoup(detail_response.content, "html.parser") # 提取电影详情信息 score = detail_soup.select(".score")[0].text.strip() duration = detail_soup.select(".duration")[0].text.strip() pubdate = detail_soup.select(".pubdate")[0].text.strip() summary = detail_soup.select(".summary")[0].text.strip() directors = [ {"name": d.text, "photo": d.attrs["src"]} for d in detail_soup.select(".director > a > img") ] actors = [ { "name": d.select(".name")[0].text, "role": d.select(".role")[0].text, "photo": d.select("img")[0].attrs["src"], } for d in detail_soup.select(".actor > .el-col") ] # 存储电影信息到本地 movie = { "name": name, "category": category, "location": location, "cover": cover, "score": score, "duration": duration, "pubdate": pubdate, "summary": summary, "directors": directors, "actors": actors, } movies.append(movie) # 创建子文件夹 directory = f"./{name}" if not os.path.exists(directory): os.makedirs(directory) if not os.path.exists(f"{directory}/actors"): os.makedirs(f"{directory}/actors") if not os.path.exists(f"{directory}/contents"): os.makedirs(f"{directory}/contents") # 下载图片 for actor in actors: actor_name = actor["name"] actor_photo = actor["photo"] response = requests.get(actor_photo) with open(f"{directory}/actors/{actor_name}.jpg", "wb") as f: f.write(response.content) for director in directors: director_name = director["name"] director_photo = director["photo"] response = requests.get(director_photo) with open(f"{directory}/{director_name}.jpg", "wb") as f: f.write(response.content) response = requests.get(cover) with open(f"{directory}/cover.jpg", "wb") as f: f.write(response.content) print(f"共爬取了{len(movies)}部电影信息") # 将电影信息写入json文件 with open("movie.json", "w", encoding="utf-8") as f: json.dump(movies, f, ensure_ascii=False) ``` 3. 运行程序 在命令行中运行以下命令以启动程序: ``` python program.py ``` 程序将会执行爬取和保存操作,您将在本地文件夹中看到按照规定存储的数据。 请注意,本程序示例仅供参考,您可以根据需要进行修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值