AI生成行业关键词辅助网页爬虫

生成行业关键词
转化搜索关键词
搜索引擎爬虫
目标网页爬虫
AI文本分析分类

一、行业关键词生成

安装本地模型

使用 LM Studio 下载 Qwen2-7B-Instruct-GGUF 到本地

发现 Qwen2-7B 使用时出现bug,一直输出GGGGGG...,推测需要开启flash attention,将 LM Studio 更新至最新版本得以解决。

完整代码、提示词

from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

llm = ChatOpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio", max_tokens=1280, temperature=0.7, top_p=0.9)

prompt = ChatPromptTemplate.from_messages([("user", 
'''
请你扮演一名专业的行业分析师,你应该利用你的行业知识和其他相关因素提供专业的分析。

请你给出以下行业以下每个主题各3至5个重要关键词,关键词应包括行业术语、概念或趋势,保证关键词的准确、具体、精炼性和与主题的相关度,逻辑连贯,内容低重复度、有深度。避免使用品牌名称或专用词,不要使用':'或'()'扩展关键词内容,关键词要易搜索和理解。


行业:3D动漫制作


主题:
1. 行业定义
2. 行业分类
3. 行业特征
4. 发展历程
5. 产业链分析
6. 市场规模
7. 政策分析
8. 竞争格局


使用以下格式:
1. <主题1>
- <关键词1>
- <关键词2>
- <关键词3>
- <关键词4>
- <关键词5>

2. <主题2>
- <关键词1>
..
..
8. ..


样例:
1. 行业定义
- 水域资源管理
- 养殖技术进步
- 水产品质量监控
- 海洋生态环境保护
- 农水联动模式

2. 行业分类
- 鲤鱼养殖
- 虾蟹养殖
- 牛蛙业
- 海参养殖
- 浮游生物养殖

3. 行业特征
- 规模化生产
- 生物多样性
- 投入成本高
- 市场周期性强
- 环保压力大

4. 发展历程
- 人工饲料
- 智能水产养殖
- 全球化市场拓展
- 产业链整合
- 技术驱动革新

5. 产业链分析
- 种苗供应
- 饲料加工
- 畜牧用地租赁
- 养殖基地建设
- 销售和分销

6. 市场规模
- 全球水产养殖产量
- 主要消费国市场
- 国内市场规模与增长
- 年度报告与预测
- 盈利能力分析

7. 政策分析
- 环保政策影响
- 信贷和补贴支持
- 农业补贴调整
- 水产养殖许可证制度
- 全球贸易法规变动

8. 竞争格局
- 主要企业竞争态势
- 新进入者威胁
- 品牌差异化策略
- 外资并购与合作
- 行业内并购案例分析
'''
)])

str_output_parser = StrOutputParser()

chain = prompt | llm | str_output_parser

input = "3D动漫制作"

reply = chain.invoke({"input": input})

代码解析

使用 LangChain 与本地大模型来生成一份关于特定行业的关键词分析。

  • 导入模块:
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

这些模块分别用于与 OpenAI 的聊天模型接口(ChatOpenAI),构建提示模板(ChatPromptTemplate),以及解析模型输出的字符串(StrOutputParser)。

  • 配置聊天模型:
llm = ChatOpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio", max_tokens=1280, temperature=0.7, top_p=0.9)

这里通过 ChatOpenAI 类配置了一个聊天模型实例 llm,使用了本地服务器的 API(http://localhost:1234/v1)。同时,设置了生成内容的参数,比如最大 token 数(max_tokens=1280)、温度(temperature=0.7)和 top_p(top_p=0.9)。这些参数控制了模型输出的长度和多样性。

  • 构建提示模板:
prompt = ChatPromptTemplate.from_messages([("user", 
'''
请你扮演一名专业的行业分析师,你应该利用你的行业知识和其他相关因素提供专业的分析。
...
''' )])

这里创建了一个聊天提示模板 prompt,通过 from_messages 方法,将用户输入的详细提示作为模板的一部分。这个提示要求模型生成与特定行业相关的多个主题关键词,并给出了示例和格式要求。

  • 设置输出解析器:
str_output_parser = StrOutputParser()

使用 StrOutputParser 创建了一个字符串输出解析器,用于解析模型生成的文本。

  • 创建执行链:
chain = prompt | llm | str_output_parser

这里使用管道操作符 | 将提示模板、语言模型和输出解析器串联起来,形成一个完整的处理链 chain。当输入数据通过这个链时,它会按照设定的步骤生成输出。

  • 输入数据并获取输出:
input = "3D动漫制作"
reply = chain.invoke({"input": input})

这部分代码定义了一个测试员的特定行业,并将其传入执行链中。invoke 方法会执行整个处理流程,最终在 reply 中放入模型生成的分析结果。

  • 输出结果:
1. 行业定义
- 三维动画制作
- 虚拟现实技术
- 动画渲染技术
- 模型设计工具
- 特效合成方法

2. 行业分类
- 广告与营销动画
- 影视与娱乐动漫
- 游戏引擎场景
- 教育科普短片
- 工业设计仿真

3. 行业特征
- 创新驱动发展
- 技术融合趋势
- IP(知识产权)价值挖掘
- 动态视觉体验
- 全球文化交融

4. 发展历程
- 二维转三维
- CGI技术兴起
- 动画电影时代
- 移动端动画增长
- AI艺术应用探索

5. 产业链分析
- 原创内容开发
- 技术方案设计
- 制作与后期特效
- 广告投放渠道
- 销售与分发平台

6. 市场规模
- 全球动画市场份额
- 主要国家市场规模
- 动漫作品播放数量
- 在线付费观看用户
- 商业广告投入统计

7. 政策分析
- 知识产权保护政策
- 文化创意产业扶持
- 新媒体法规调整
- 出口与合作政策变化
- 技术研发支持措施

8. 竞争格局
- 全球主要动画公司竞争
- 国内外新兴动画工作室成长
- 内容创新与IP合作
- 科技巨头的入局策略
- 产业链上下游整合案例

总结来说,这段代码实现了一个自动化的行业关键词分析系统。通过提供行业名称,生成相关主题的关键词列表,供用户参考。

二、生成搜索关键词

分析生成的结果,制成便于搜索的形式

import re

lines = reply.strip().split("\n")
industry_keywords = []
current_topic = ""
topics = {}
# 逐行分析reply中的结果
for line in lines:
    if re.match(r"\d+\.\s.*", line):  # 1. 行业定义
        current_topic = line.split(". ")[1].strip()
        topics[current_topic] = []
    elif line.startswith("-"):        # - 行业关键词
        keyword = line[1:].strip()
        topics[current_topic].append(keyword)
        industry_keywords.append((current_topic, keyword))

# 打印行业关键词组合
for topic, keyword in industry_keywords:
    print(f"{input} {keyword}")

例如:

Created with Raphaël 2.3.0 1. 行业定义 - 动漫制作 - 三维建模 - 数字艺术 2. 行业分类 - 影视动漫 - 游戏开发 3D动漫制作 动漫制作 3D动漫制作 三维建模 3D动漫制作 数字艺术 3D动漫制作 影视动漫 3D动漫制作 游戏开发

三、搜索引擎爬虫

对生成的关键词组合进行搜索,从百度搜索页面获取搜索结果的链接

完整代码

import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
import random
from time import sleep

ua = UserAgent()
headers = {
    'accept': '*/*',
    'accept-encoding': 'gzip, deflate, br, zstd',
    'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
    'connection': 'keep-alive',
    'cookie': '...',
    'User-Agent': ua.edge
}

for topic, keyword in industry_keywords:
    keyword_combination = f"{input} {keyword}"

    response = requests.get(f'https://www.baidu.com/s?wd={keyword_combination}&pn={0}', headers=headers)

    html = response.text
    soup = BeautifulSoup(html, 'html.parser')

    content_left = soup.find('div', attrs={'id': 'content_left'})
    all_divs = content_left.find_all('div', attrs={'mu': True})
    links = [div.get('mu') for div in all_divs]

    for link in links:
        print(keyword_combination, link)
    
    # 随机等待
    wait_seconds = random.uniform(0.5, 1.5)
    sleep(wait_seconds)

代码解析

  • 导入所需的库:
import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
import random
from time import sleep

这里导入了 requests(用于发起 HTTP 请求)、BeautifulSoup(用于解析 HTML)、UserAgent(用于生成随机的 User-Agent 头信息)、random(用于生成随机数)以及 sleep(用于实现等待功能)。

  • 设置请求头:
ua = UserAgent()
headers = {
    'accept': '*/*',
    'accept-encoding': 'gzip, deflate, br, zstd',
    'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
    'connection': 'keep-alive',
    'cookie': '...',
    'User-Agent': ua.edge
}

这部分代码使用 fake_useragent 库生成了一个随机的 User-Agent(这里选择的是 edge),并构造了一个包含多个头信息的 headers 字典。头信息包括了 accept、accept-language、cookie 等,用于模拟浏览器行为,避免被反爬虫机制识别。

  • 遍历行业关键词并发起搜索请求:
for topic, keyword in industry_keywords:
    keyword_combination = f"{input} {keyword}"

    response = requests.get(f'https://www.baidu.com/s?wd={keyword_combination}&pn={0}', headers=headers)

    html = response.text
    soup = BeautifulSoup(html, 'html.parser')

    content_left = soup.find('div', attrs={'id': 'content_left'})
    all_divs = content_left.find_all('div', attrs={'mu': True})
    links = [div.get('mu') for div in all_divs]

    for link in links:
        print(keyword_combination, link)

使用 industry_keywords 列表中的每个关键词组合生成一个搜索关键字 keyword_combination。
使用 requests.get 方法将该关键字传入百度搜索 URL(https://www.baidu.com/s?wd={keyword_combination}),并带上请求头发起 HTTP GET 请求。可以循环更改pn的值爬取其他页的信息。

分析百度搜索结果页面,将请求返回的 HTML 文本通过 BeautifulSoup 解析,并查找包含搜索结果的 div 标签。
通过 soup.find_all 方法查找所有具有 mu 属性的 div 标签,获取搜索结果中的链接。
将每个关键词组合与相应的链接打印出来。

  • 随机等待:
wait_seconds = random.uniform(0.5, 1.5)
sleep(wait_seconds)

这段代码在每次请求之间引入一个随机的等待时间,范围在 0.5 到 1.5 秒之间,以此来模拟人类的行为,减少被反爬虫机制发现的风险。

四、目标网页爬虫

解析目标网页,尽量去除无关广告、推荐,保留正文内容

完整代码

import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
import re
import chardet

def remove_ads_by_tag(soup):
    # 常见的广告类名或ID
    tag_keywords = ['next', 'post_top_tie', 'jubao', 'search', 'comment', 'share', 'nav', 'ad', 'recommend', 'tool', 'advertisement', 'ads', 'sponsored', 'promo', 'banner', 'adsense', 'aside', 'footer', 'header', 'side-bar', 'column', 'sidebar', 'list', 'sideColumn', 'side']
    
    # 构造正则表达式用于匹配关键字
    pattern = re.compile('|'.join(tag_keywords), re.IGNORECASE)
    
	# 查找并删除 id 或 class 属性中包含关键字的标签
    tags = soup.find_all(class_=pattern)
    for tag in tags:
        tag.decompose()

    tags = soup.find_all(id=pattern)
    for tag in tags:
        tag.decompose()

    # 删除头尾侧边栏等
    for iframe in soup.find_all('iframe'):
        iframe.decompose()
    for aside in soup.find_all('aside'):
        aside.decompose()
    for header in soup.find_all('header'):
        header.decompose()
    for footer in soup.find_all('footer'):
        footer.decompose()

    return soup

def remove_ads_by_text(soup):
    ad_keywords = ['优惠券', '阅读原文', '扫一扫', '限时抢购', '免费试用', '立即注册', '超值折扣', '注册有礼', '免费领取', '立即购买', '关注该公众号', '微信扫码', '分享至', '下载(.*?)客户端', '返回(.*?)首页', '阅读下一篇', '特别声明:以上内容', 'Notice: The content above', '打开(.*?)体验更佳', '热搜', '打开(.*?)新闻', '查看精彩图片']
    for keyword in ad_keywords:
        for ad in soup.find_all(string=re.compile(keyword)):
            parent = ad.find_parent()
            if parent:
                parent.decompose()

    return soup

def clean_html(html_content):
    # 使用BeautifulSoup解析HTML
    soup = BeautifulSoup(html_content, 'lxml')
    soup = remove_ads_by_tag(soup)
    soup = remove_ads_by_text(soup)
    
    # 去除脚本和样式
    for script in soup(['script', 'style']):
        script.decompose()

    # 插入换行符
    for tag in soup.find_all(['p', 'h1', 'h2', 'h3', 'h4', 'h5', 'h6', 'li', 'tr', 'div', 'br', 'hr']):
        tag.insert_after('\n')

    # 提取文本
    text = soup.get_text()

    # 正则表达式清理多余空格空行
    text = re.sub(r'\n+', '\n', text)
    text = re.sub(r'\s{2,}', ' ', text)

    return text

ua = UserAgent()
headers = {
    'accept': '*/*',
    'accept-encoding': 'gzip, deflate, br, zstd',
    'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
    'connection': 'keep-alive',
    'cookie': '...',
    'User-Agent': ua.edge,
}
# 获取html的文本内容
response = requests.get('...', headers=headers)

response.raise_for_status()  # 检查请求是否成功
# 检测编码
encoding_result = chardet.detect(response.content)
encoding = encoding_result['encoding']
response.encoding = encoding

text = clean_html(response.text)
print(text)

这段代码的目的是通过HTTP请求获取网页内容,并使用BeautifulSoup解析和清理HTML内容,从而提取出有用的纯文本信息。代码的工作流程如下:

代码解析

  • 导入所需的库:
import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
import re
import chardet

这些库的功能包括:发送HTTP请求(requests)、解析HTML内容(BeautifulSoup)、生成随机的User-Agent头(UserAgent)、进行正则表达式操作(re)、以及检测内容编码(chardet)。

  • 定义广告标签移除函数:
def remove_ads_by_tag(soup):
    # 广告标签关键字
    tag_keywords = ['next', 'post_top_tie', 'jubao', 'search', 'comment', 'share', 'nav', 'ad', 'recommend', 'tool', 'advertisement', 'ads', 'sponsored', 'promo', 'banner', 'adsense', 'aside', 'footer', 'header', 'side-bar', 'column', 'sidebar', 'list', 'sideColumn', 'side']
    pattern = re.compile('|'.join(tag_keywords), re.IGNORECASE)
    
    # 移除包含这些关键词的标签
    tags = soup.find_all(class_=pattern)
    for tag in tags:
        tag.decompose()

    tags = soup.find_all(id=pattern)
    for tag in tags:
        tag.decompose()

    # 删除常见的广告标签如iframe
    for iframe in soup.find_all('iframe'):
        iframe.decompose()
    for aside in soup.find_all('aside'):
        aside.decompose()
    for header in soup.find_all('header'):
        header.decompose()
    for footer in soup.find_all('footer'):
        footer.decompose()

    return soup

这个函数通过匹配标签的id或class属性中包含广告相关的关键字来移除广告内容,并且删除了一些常见的非正文标签如iframe、aside、header、footer。

  • 定义广告文本移除函数:
def remove_ads_by_text(soup):
    ad_keywords = ['优惠券', '阅读原文', '扫一扫', '限时抢购', '免费试用', '立即注册', '超值折扣', '注册有礼', '免费领取', '立即购买', '关注该公众号', '微信扫码', '分享至', '下载(.*?)客户端', '返回(.*?)首页', '阅读下一篇', '特别声明:以上内容', 'Notice: The content above', '打开(.*?)体验更佳', '热搜', '打开(.*?)新闻', '查看精彩图片']
    for keyword in ad_keywords:
        for ad in soup.find_all(string=re.compile(keyword)):
            parent = ad.find_parent()
            if parent:
                parent.decompose()
    return soup

这个函数通过匹配文本内容中的广告关键字,来删除包含这些内容的父标签。

  • 定义HTML清理函数:
def clean_html(html_content):
    soup = BeautifulSoup(html_content, 'lxml')
    soup = remove_ads_by_tag(soup)
    soup = remove_ads_by_text(soup)
    
    # 删除脚本和样式标签
    for script in soup(['script', 'style']):
        script.decompose()

    # 插入换行符
    for tag in soup.find_all(['p', 'h1', 'h2', 'h3', 'h4', 'h5', 'h6', 'li', 'tr', 'div', 'br', 'hr']):
        tag.insert_after('\n')

    text = soup.get_text()

    text = re.sub(r'\n+', '\n', text)
    text = re.sub(r'\s{2,}', ' ', text)

    return text

这个函数综合利用了前两个函数清理广告内容,同时删除了脚本和样式标签,并通过正则表达式清理多余的空白行和空格,最后提取并返回纯文本。

  • 发送HTTP请求并处理响应:
ua = UserAgent()
headers = {
    'accept': '*/*',
    'accept-encoding': 'gzip, deflate, br, zstd',
    'accept-language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
    'connection': 'keep-alive',
    'cookie': '...',
    'User-Agent': ua.edge,
}

response = requests.get('...', headers=headers)
response.raise_for_status()  # 检查请求是否成功

encoding_result = chardet.detect(response.content)
encoding = encoding_result['encoding']
response.encoding = encoding

text = clean_html(response.text)
print(text)

这里首先生成随机的User-Agent,并发起HTTP GET请求获取网页内容。使用chardet检测网页内容的编码,并正确设置响应的编码格式。最后通过定义的clean_html函数处理并提取网页的纯文本内容。

五、AI 文本分析

  • 提示词编写
请你从以下文章中提取与{input}相关的信息,并撰写一个自然段的简介,字数不超过300字。请注意,文章内容可能包含广告、推荐、导航栏等无关信息,请忽略这些部分,只提取与{input}及其相关的有效信息。然后,从提供的关键词中选择最多8个与内容相关的关键词进行分类,并按照指定格式列出。


文章:
{text}


可选关键词:
{keywords}


使用以下格式:
标题:
简介:(字数不超过300字)

关键词:关键词1,关键词2...,关键词n(分类,从可选关键词中选择1-8个)
  • 输入样例:
文章:
筹资3000元创业,这位潮商打造IP生意经,要做“东方迪士尼”|动漫|蔡东青|黄伟明|奥飞娱乐_网易订阅
网易首页 > 网易号 > 正文 申请入驻
筹资3000元创业,这位潮商打造IP生意经,要做“东方迪士尼” 2024-07-29 16:56:19 来源: 潮商
广东 手握多款国民经典IP的奥飞娱乐,正试图通过“IP+X”的商业模式,将IP延伸到更多的领域。 7月19日,电影《喜羊羊与灰太狼之守护》登陆全国院线。这是“喜羊羊与灰太狼”系列的第九部大电影,也是“喜羊羊与灰太狼”IP大电影首次在暑期档投放。同时,创作团队在部电影作品中首次纳入了机甲元素。对于已经问世19年的经典国民IP,多个“首次”能够看到“喜羊羊与灰太狼”试图突围的决心。 首战暑期档 猫眼数据显示,《喜羊羊与灰太狼之守护》首日票房903.5万,首周票房3250.9万。截至7月25日,该影片在猫眼 综合 票房排行榜单中暂列第九位,其票房更是被《抓娃娃》《神偷奶爸4》等影片远远甩开。 自2005年首播,“喜羊羊与灰太狼”IP已经走过了19年。其第一部系列大电影《喜羊羊与灰太狼牛气冲天》,成为中国首部票房突破5000万的国产动画电影。经典国漫IP回归叠加首战暑期档,似乎并未让“喜羊羊与灰太狼”大电影票房的第九部作品迎来爆发式的增长。 值得注意的是,这也是“喜羊羊与灰太狼”IP被奥飞娱乐收入麾下的第11年。2013年9月,奥飞娱乐以3639.6万元受让广东原创动力文化传播有限公司(以下简称“原创动力”)100%股权,进而将“喜羊羊与灰太狼”IP收入囊中。 随后的两年时间里,奥飞娱乐方面相继推出了“喜羊羊”系列大电影的第六部《喜羊羊与灰太狼之飞马奇遇记》和第七部《喜羊羊与灰太狼之羊年喜羊羊》,其票房表现并未达到此前几部作品的水平。甚至《喜羊羊与灰太狼之羊年喜羊羊》成为“喜羊羊与灰太狼”系列大电影中票房最低的一部作品。 在这两部大电影作品之后,“喜羊羊与灰太狼”系列大电影直到2022年《喜羊羊与灰太狼之筐出未来》的上映才再次与观众见面,之间相隔7年之久。这部作品改变了此前生肖系列的做法,将篮球运动纳入其中,同时增加了制作成本,然而这部作品与此前的作品相比,似乎并未达到市场预期。 当前,“喜羊羊与灰太狼”系列大电影的第九部作品首次选择在暑期档上映,同时在创作中纳入了机甲风,试图吸引影迷的注意力。此前,“喜羊羊与灰太狼”IP的创造者黄伟明在接受媒体记者采访时表示,选择在暑期档上映是一种探索,我们想试一下新的档期。而在被问到为何没有延续第八部的“运动路线”时,黄伟明表示,我们想多尝试不同的风格。 此次诸多“第一次”的尝试究竟能否让“喜羊羊与灰太狼”系列大电影再续辉煌,并且为奥飞娱乐贡献更好的业绩表现?对此,记者联系到奥飞娱乐方面,对方以正处于半年报静默期为由,并未给出明确答复。 记者注意到,在投资者互动平台上,有投资者质疑奥飞娱乐此次“喜羊羊与灰太狼”大电影的票房未达预期。对此,奥飞娱乐方面回应称,近期《喜羊羊与灰太狼之守护》动画电影在全国热映,为整个IP带来了一定的正面效应,不仅体现在持续增长的票房成绩上,也将反映在IP品牌影响力的增强以及授权合作商业机会的拓展等方面。 用3000创业,靠山寨发家
▲蔡东青 1969年4月,蔡东青出生在盛产手工艺品的广东汕头澄海区,后来的“中国玩具之都”。在上个世纪80年代初,澄海完成了经济改制,当地随之兴起“玩具生产”的热潮,一个个工厂作坊如雨后春笋。 1986年,高中毕业的蔡东青为了家中生计,筹资3000元在澄海开办生产塑料小喇叭的手工作坊。用了3年,小作坊逐渐成型,蔡东青正式成立了广州奥迪玩具有限公司,并积累下一定的资金。 90年代初,塑料玩具已初现瓶颈。当时,《南方谈话》刚诞生,中国正掀起新一轮经济发展大潮。蔡东青决心去“大都市”香港闯一闯。 好巧不巧,在香港街头,蔡东青发现了货摊上的四驱车玩具,他一眼相中,内心就一个念头:“这个一定会火。” 他赶回澄海,开厂开模做车型外壳,又另外找厂子做齿轮,推出了“奥迪双钻”牌四驱车。 当时的奥迪双钻,无论是logo,还是赛车产品,几乎与日本模型界的龙头田宫(TAMIYA)如出一辙,也因此被质疑是“山寨”货。有媒体称,奥迪双钻确实曾获得田宫的代理授权,只是后期合作终止。
▲左边为奥迪双钻LOGO,右边为田宫LOGO 无论这当中有何“秘辛”,奥迪双钻都靠着田宫的车型完成了产品的生产,并省下了研发成本。 实际上,在奥迪双钻入场之前,中国的玩具模型厂商龙头是一家开在福建的中日港合资公司——福万。当年,福万因产品涉“法西斯”宣传而停产倒下,市场恰巧让出一片空白,给了奥迪双钻机会。 在这样的背景下,蔡东青又耗资200多万元举办民间四驱车大赛,吸引了近60万人次参加,让四驱车打开了消费市场。而相比于正品80元以上的田宫,堪比正品且20元一辆的奥迪双钻,迅速成为当下的“畅销玩具”。 不过,真正的巅峰还在后头。 玩具商,成中国动漫第一股
▲日本动画《四驱小子》 彼时,蔡东青又趁热打铁斥巨资引入日本动画《四驱小子》。动画的播出又带动玩具的热销,这才让四驱车和奥迪双钻,登至顶峰,横扫千军无敌手,成为当年四驱车市占率最高的玩具厂商。 也是在这个时候,蔡东青发现了动漫市场的蓝海。 2004年,蔡东青在广州正式成立奥飞动漫公司,并在2年后推出首部原创动漫《火力少年王》,开启了“动漫+玩具”商业发展模式。 2009年8月,奥飞动漫(后改名奥飞娱乐)在A股上市,成为“中国动漫第一股”,公司营收达5.91亿元。与此同时,公司业绩也是一路高歌猛进,到了2017年,其营收已增至36.42亿元。 “IP+X”模式
上市后的奥飞,早已脱离了“玩具厂商”的定位。动漫《火力少年王》的火热,让奥飞娱乐坚定了走动漫IP的道路。奥飞开始在动漫行业布局,例如成立奥飞影业,收购“有妖气”国产动漫平台等,并于2016年更名为“奥飞娱乐”,后续收购美国童车商Baby Trend Inc,加码布局婴童产业,同时在2017年开始陆续布局实体游乐园“奥飞欢乐世界”。 记者了解到,当前,奥飞娱乐以IP为核心,打造全新动漫文化产业生态。当前,公司主营业务主要分为三大板块,分别是内容业务、玩具业务及婴童业务。2023年财报数据显示,奥飞娱乐实现营业收入27.39亿元,同比增长3.09%;净利润9364.26万元,同比增长154.63%。 在奥飞娱乐的产业布局中,“IP+X”中的X代表AI、玩具、外部合作等新探索的总和。而从营收角度,当前,玩具以及婴童用品仍然是其来赖以生存的核心。 2023年,奥飞娱乐在玩具、婴童、动漫影视收入分别为11.7亿元、10.7亿元、3.5亿元。其中,玩具收入占比从2022年的37.28%提升至2023年42.62%。 近年来,奥飞娱乐还将业务版图延伸至游戏领域。记者注意到,奥飞娱乐当前与游戏领域的《蛋仔派对》《元梦之星》等多款知名游戏打造联名产品,而从当前的营收角度观察,游戏类在奥飞娱乐的业务板块中并不突出。2023年财报显示,奥飞娱乐在游戏类实现营收983.3万元,同比下滑10.88%,毛利率7.83%,在总营收中占比为0.36%。 对于奥飞娱乐在游戏领域的探索,该公司并未向记者作出明确答复。 奥飞娱乐方面提供的资料显示,多年来,其持续打造并积累了众多优质IP资源,构建了全年龄段IP矩阵,包括“超级飞侠”“喜羊羊与灰太狼”“巴啦啦小魔仙”“铠甲勇士”等。 万联证券研报中提到,奥飞娱乐的IP资源丰富,且“喜羊羊与灰太狼”“巴啦啦小魔仙”“铠甲勇士”等优质IP国民认可度较高,在授权业务具有较强的优势,同时具备成熟的IP商业化运作能力,为公司扩大IP影响力,增加IP营收。 记者注意到, 人工智能等新技术的应用正在为数字产业带来新的场景。奥飞娱乐在2023年业绩说明会上提到,AI在推动文化产业发展方面具有强确定性,其要深入研究如何通过AI提质增效,打造新质生产力的课题。在业务层面加快人工智能与儿童IP活化、儿童IP数字人研发以及商业应用,一定程度上推动产业变革和效率提升。 同时,奥飞娱乐提供的资料显示,其积极拥抱人工智能等前沿技术给文化产业带来的变革,于2023年5月与北京红棉小冰科技有限公司(以下简称“小冰公司”)正式达成战略合作,双方就“IP+AI”产业化落地应用展开探索与合作。依托小冰公司框架能力以及在人工智能大语言模型、多模态数字人交互、自然语言处理等人工智能技术优势,结合奥飞娱乐丰富的动漫资源,为IP赋予多模态交互能力,打造“喜羊羊与灰太狼”“超级飞侠”等知名动画IP主要角色的 虚拟数字人 及智能玩具,推动人工智能技术在儿童领域的进一步发展。 此外,2023年,奥飞娱乐首个AI孪生数字人“喜羊羊”成功孵化,创新了IP触达用户的形式,并以高频对话轮次增强用户黏性,独特的沉浸式体验赋予IP不同形式的生命力。同时,通过喜羊羊与灰太狼粉丝小程序“@喜羊羊与灰太狼+”+喜羊羊AI群聊小程序“@羊言羊语”+AI喜羊羊数字人,共同打造“IP+AI”跨次元矩阵,探索数字虚拟世界的无限可能。
来源:中国经营网、首席投研观察、动漫艺术家、天下潮商等


可选关键词:
动画技术革新
游戏影视融合
三维建模软件
IP开发趋势
虚拟现实应用
角色动画
特效制作
故事叙事动画
動漫衍生品
VR/AR内容
高技术含量
创新驱动强
技术人才需求大
国际化竞争
视觉艺术导向
计算机辅助动画
《千与千寻》里程碑
动画产业链成熟
全球市场接受度提升
数字化转型
原创剧本开发
分布式生产平台
动画渲染服务
影视发行渠道
教育培训环节
全球动画市场规模
独立工作室崛起
内容消费市场趋势
年度报告数据
行业增长率预测
国家影视政策扶持
文化产业振兴计划
保护知识产权法规
艺术创新税收优惠
国际合作机遇
大型动画公司主导
新兴工作室挑战
IP品牌效应显著
多元化业务模式
创新和差异化策略
  • 结果样例:
标题:
奥飞娱乐探索“东方迪士尼”之路:IP+X模式与技术创新驱动动画产业新发展

简介:
奥飞娱乐作为中国动漫行业的领军企业,在蔡东青的领导下,从玩具生产起步,逐渐转型为集内容创作、IP打造和跨领域合作为一体的综合性文化产业集团。通过引入《四驱小子》等知名动画并推出同名玩具,奥飞开启了“动漫+玩具”的商业模式,并于2009年成功上市成为中国首支动漫股。此后,奥飞持续探索“IP+X”模式,将人工智能、虚拟现实和游戏等新兴技术融入动画产业,不仅开发了《火力少年王》等原创系列作品,还通过与多家知名品牌合作推出联名产品,如与《蛋仔派对》《元梦之星》的合作,以及与小冰公司的AI战略联盟。奥飞娱乐通过不断创新和差异化策略,在全球市场持续扩大其品牌影响力,并以技术创新驱动动画产业链的成熟发展。

关键词:IP开发趋势、虚拟现实应用、人工智能技术、技术创新驱动强、内容消费市场趋势、全球化竞争、合作机遇
  • 14
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值