一个完整的大作业

1.选一个自己感兴趣的主题。

www.freebuf.com   FreeBuf黑客与极客,国内关注度最高的全球互联网安全媒体平台,同时也是爱好者们交流与分享安全技术的最佳社区。

2.网络上爬取相关的数据

import requests
from bs4 import BeautifulSoup


def list(page):
    html=requests.get("http://www.freebuf.com/page/"+page)
    soup = BeautifulSoup(html.text,'lxml')
    nlist=soup.select('div.news-info')
    #print(test.text)
    #print(news)
    for i in nlist:
        neirong(i.select('dl > dt > a')[0].get('href'))
    try:
        list(str(int(page)+1))
    except:
        pass
    

def neirong(url):
    html=requests.get(url)
    soup = BeautifulSoup(html.text,'lxml')
    t=soup.select('div.articlecontent')[0].select('div')[2].select('p')
    for i in t:
        print(i.text)
    #print(t)


list("1")

爬取数据如下

 

3.进行文本分析,生成词云

import requests
from bs4 import BeautifulSoup
import pandas as pd
import jieba

from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator
import matplotlib.pyplot as plt
from scipy.misc import imread
import os
cis= ''


def list(page):
    html= requests.get("http://www.freebuf.com/page/"+ page)
    soup = BeautifulSoup(html.text, 'lxml')
    nlist= soup.select('div.news-info')
    for i in nlist:
        neirong(i.select('dl > dt > a')[0].get('href'))
    try:
        # list(str(int(page)+1))
        pass
    except:
        pass

def neirong(url):
    html= requests.get(url)
    soup = BeautifulSoup(html.text, 'lxml')
    t= soup.select('div.articlecontent')[0].select('div')[2].select('p')
    for i in t:
        jiebafc(i.text)

def jiebafc(text):
    seg_list = jieba.cut(text, cut_all=False)
    # print ("Default Mode:", ",".join(seg_list))  # 精确模式
    ci= " " .join(seg_list)
    # print(ci)
    global cis
    cis= cis +ci


list("1")
a=[]
a.append(cis)
dataframe = pd.DataFrame({'a_name':a})
dataframe.to_csv("test.csv",index =False,sep= ' ')
print(cis)

d =os.path.dirname(__file__)  # 获取当前路径
text= cis
alice_coloring = imread(os.path.join(d, "11.png"))  # 设置背景图片

# 初始化词云一系列参数
wc = WordCloud(background_color="white",  # 背景颜色max_words=2000,# 词云显示的最大词数
               mask=alice_coloring,  # 设置背景图片
               stopwords=STOPWORDS.add("said"),
               font_path="MSYH.TTF",  # 中文字体文件
               max_font_size=40,  # 字体最大值
               random_state=42)
wc.generate(text)  # 生成词云
image_colors = ImageColorGenerator(alice_coloring)  # 从背景图片生成颜色值

plt.imshow(wc)  # 画词云
plt.axis("off")
wc.to_file(os.path.join(d, "名称.png"))  # 保存图片到当前目录下

截图如下

 

转载于:https://www.cnblogs.com/seed-ge/p/7763168.html

抱歉,由于人工智能大作业涉及到不同的应用场景和问题,代码实现也会因此而异,无法给出一个通用的完整代码。但是,以下是一个数字识别的代码示例,供您参考: ``` # 导入库 import tensorflow as tf from tensorflow import keras import numpy as np import matplotlib.pyplot as plt # 加载MNIST数据集 mnist = keras.datasets.mnist (train_images, train_labels), (test_images, test_labels) = mnist.load_data() # 数据预处理 train_images = train_images / 255.0 test_images = test_images / 255.0 # 建立模型 model = keras.Sequential([ keras.layers.Flatten(input_shape=(28, 28)), keras.layers.Dense(128, activation='relu'), keras.layers.Dense(10) ]) # 编译模型 model.compile(optimizer='adam', loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), metrics=['accuracy']) # 训练模型 model.fit(train_images, train_labels, epochs=10) # 评估模型 test_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2) print('\nTest accuracy:', test_acc) # 使用模型进行预测 probability_model = tf.keras.Sequential([model, tf.keras.layers.Softmax()]) predictions = probability_model.predict(test_images) ``` 以上代码实现了一个简单的数字识别模型,包括数据集的加载、模型的建立、训练和评估等步骤。具体来说,该模型使用了一个包含两个全连接层的神经网络,对输入的数字图片进行分类。在训练过程中,使用了Adam优化器和交叉熵损失函数。在预测过程中,使用了Softmax函数对输出进行了归一化,得到了每个数字的概率分布。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值