三大视频网站Url的处理保存(视频和图片二选一操作)

前台Js

// 视频处理
var textVideoLink=$("input[name='textVideoLink']").val();
// 去除所有有的引号和空格
var vk=textVideoLink.replace(/\"/g, "");
// 地址的处理
var reg = RegExp(/allowfullscreen/);
var youku = RegExp(/youku/);
var youkuPostfix = RegExp(/frameborder=0/);
// 编辑时的处理
var vklPrefix="http";
var vklStr=textVideoLink.substr(0,4);

if(textVideoLink!=null && textVideoLink != ""){

if(vk.match(reg) && !vk.match(youku)){
// 爱奇艺和腾讯走以下截取
var textVideoLink=vk.substring(vk.indexOf("http"), vk.lastIndexOf("allowfullscreen"));

}else if(vk.match(youku) && vk.match(youkuPostfix)){
// 优酷视频地址走一下截取
var textVideoLink=vk.substring(vk.indexOf("http"), vk.lastIndexOf("frameborder=0"));

}else if(vklPrefix==vklStr){
// 编辑回显状态时输入框的url
var textVideoLink=textVideoLink.replace(/\"/g, "");
}else{
bootbox.alert({
size: "small",
title: "错误",
message: "输入的视频地址格式有误"
});
return;
}
}else{
// 发生在变更时 将视频转图片的情况下
alert("测试");
}



// 视频和主图的添加的判断
var textPicture = $('input[name=textPicture]').val().trim();

if (textVideoLink == null || textVideoLink == "") {
if (textPicture != "") {
// 添加图片
data.textPicture = textPicture;
} else {
bootbox.alert({
size: "small",
title: "错误",
message: "请至少上传一张图片或一个视频地址"
});
return;
}
} else if ((textVideoLink != "" || textVideoLink != null) && textPicture != "") {

bootbox.alert({
size: "small",
title: "错误",
message: "图片和视频只能二选一"
});
return;

}else if(textVideoLink != "" && vklStr==vklPrefix && textPicture=="") {
// 编辑时 会显的是 http开头的地址
data.textVideoLink=textVideoLink;

}else if(textVideoLink != "" && (textPicture != "" || textPicture != null)){
// 新增时 视频url 添加
data.textVideoLink=textVideoLink;
}

 

 

 

后台Java代码的保存

 

/ 新增微信推荐文章信息
@Override
@Transactional
public BaseOutDTO addWxText( WxDiscoverText wxDiscoverText) {
BaseOutDTO baseOutDTO = new BaseOutDTO();
int i;
Date date = new Date();
if (wxDiscoverText.getTextId()==null){
if(wxDiscoverText.getTextVideoLink()!=null && wxDiscoverText.getTextVideoLink()!=""){
String vk = wxDiscoverText.getTextVideoLink();
wxDiscoverText.setTextVideoLink(vk);
}
// 删除状态默认未删除
wxDiscoverText.setIsDelete((byte) 0);
// 创建时文章浏览量默认为0
wxDiscoverText.setReadCount(0L);
// 默认排序为0
wxDiscoverText.setSort(0);
wxDiscoverText.setTextCreateTime(date);
i = wxDiscoverTextMapper.insertSelect(wxDiscoverText);
} else if(wxDiscoverText.getTextId()!=null && wxDiscoverText.getTextVideoLink()!=null ){
String vk = wxDiscoverText.getTextVideoLink();
wxDiscoverText.setTextVideoLink(vk);
wxDiscoverText.setTextUpdateTime(date);
wxDiscoverText.setIsShow((byte)1);
i = wxDiscoverTextMapper.updateTextByPrimaryKeyService(wxDiscoverText);
}else if(wxDiscoverText.getTextId()!=null && wxDiscoverText.getTextVideoLink()==null && wxDiscoverText.getTextPicture()!=null){
wxDiscoverText.setTextVideoLink("");
wxDiscoverText.setTextUpdateTime(date);
wxDiscoverText.setIsShow((byte)1);
i = wxDiscoverTextMapper.updateTextByPrimaryKeyService(wxDiscoverText);
}else {
wxDiscoverText.setTextUpdateTime(date);
wxDiscoverText.setIsShow((byte)1);
i = wxDiscoverTextMapper.updateTextByPrimaryKeyService(wxDiscoverText);
}

if (i==1){
baseOutDTO.setErrorCode(Rescode.SUCCESS);
}else {
baseOutDTO.setErrorCode(Rescode.FAIL);
}
return baseOutDTO;
}

转载于:https://www.cnblogs.com/jabez1992/p/9376538.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,请问您输入的是一个单独的网页链接,还是需要爬取整个网站的内容呢? 如果您只需要输入一个单独的网页链接,可以使用如下的Python代码: ```python import requests from bs4 import BeautifulSoup url = input("请输入您要获取的网页链接:") response = requests.get(url) if response.status_code == 200: content = response.text soup = BeautifulSoup(content, 'html.parser') text = soup.get_text() with open('result.txt', 'w', encoding='utf-8') as f: f.write(text) for img in soup.find_all('img'): img_url = img.get('src') img_response = requests.get(img_url) if img_response.status_code == 200: with open(img_url.split('/')[-1], 'wb') as img_f: img_f.write(img_response.content) for video in soup.find_all('video'): video_url = video.get('src') video_response = requests.get(video_url) if video_response.status_code == 200: with open(video_url.split('/')[-1], 'wb') as video_f: video_f.write(video_response.content) else: print("请求失败,请检查输入的链接是否正确!") ``` 这段代码会让您输入一个网页链接,然后使用 `requests` 库来获取该网页的内容。然后,使用 `BeautifulSoup` 库对网页进行解析,获取其中的文字内容,并将其保存到一个叫做 `result.txt` 的文件中。 同时,该代码还会找出该网页中所有的图片视频,并将它们保存到与它们的链接最后一节相同的文件名的文件中。 如果您需要爬取整个网站的内容,建议使用专门的爬虫框架,例如 `Scrapy` 等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值