1.拓客系统主要为企业提供从线索挖掘、商机触达、客户管理到成单分析的全流程智能销售解决方案,帮助大中小型企业在销售端降低销售成本,提升销售业绩。
系统采用PHP+mysql+es 的架构,分布式数据仓库,大大提供数据挖掘检索效率。集成多个数据库。通过es缓存层提高系统检索效率。
<?php
//config.php
return array(
'db'=>array(
'host' => '127.0.0.1',
'port' => 3306,
'user' => 'root',
'password' => 'rootroot',
'qyuser' => 'xxx',
'qypassword' => 'rootroot',
'qydbname' => 'gongshang123',
'dpdbname' => 'shangpu123',
'dtdbname' => 'ditu123',
'gcdbname' => 'gongch123',
'tkdbname' => 'tuoke123',
'encoding' => 'utf8'
)
);
整体可划分为四个主要模块,即拓客系统、集客系统、触达系统、CRM系统。
通过拓客系统,将海量的企业客户线索集成,一秒搜索海量的客户线索,找到海量的优质客户。包括企业信息,商铺信息,地图信息,展会信息,项目信息,网店信息,渠道信息,工厂信息等等。从几百种维度去搜索目标客户。
集客系统主要是汇集全渠道链路的访客信息,大大提高客服人员的沟通消息和管理效率,助力提升客服成单转化。
智能触达模块主要是通过呼叫中心,可以人工触达或者AI机器人触达,或者短信触达、邮件触达。从多方位触达客户,自动形成客户跟进记录,助力销售人员提升效率。
CRM管理模块对接拓客系统、集客系统、触达系统,形成客户的统一管理,包括整个线索全链路管理,智能客户评级,为销售人员和管理人员提供一站式的解决方案。
2系统布局
多个维度组合筛选,包括地区、行业、企业类型、客户舆情信息等条件,满足企业在获客上的不同需求。可以将查询组合保存为条件组,方便后续调取。
企业信息全面聚合,包括企业工商信息、产品信息、官方媒体等全面展现,有哪些联系方式、有无企业风险等一清二楚,智能推荐可靠活跃的真实号码,获客更高效!
3.系统配置说明
3.1服务器配置及环境要求
名称 | 版本要求 |
服务器 | CPU 2核心 ↑ 运存 4G ↑ 宽带 5M ↑ |
服务器操作系统 | Linux Centos7 ↑ |
运行环境 | Nginx 1.20 ↑ PHP 7.2 ↑ MYSQL 5.7 ↑ |
3.2 PHP设置
一、安装PHP插件:fileinfo、redis
二、删除PHP对应版本中的 pcntl_signal 、pcntl_signal_dispatch、 pcntl_fork、pcntl_wait、pcntl_alarm 禁用函数
3.3站点配置
- 上传所有源码包到站点目录
- 设置伪静态,选择thinkphp
3.4 数据库配置
启动数据库服务器,并启动数据库服务mysql5.7,设置系统用户并允许web服务器进行远程访问。
参考配置授权语句:
grant select, insert, update, delete on telephonerobot.* to root@"118.195.239.69" identified by "root" with grant option;
3.5 ES数据同步配置
input {
jdbc {
# 设置 MySql/MariaDB 数据库url以及数据库名称
jdbc_connection_string => "jdbc:mysql://127.0.0.1:4816/database?useSSL=false&serverTimezone=UTC"
# 用户名和密码
jdbc_user => "root"
jdbc_password => "root"
# 数据库驱动所在位置,可以是绝对路径或者相对路径
jdbc_driver_library => "C:\node\logstash-8.4.3\sync\mysql-connector-java-8.0.11.jar"
# 驱动类名
jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
# 开启分页
jdbc_paging_enabled => "true"
# 分页每页数量,可以自定义
jdbc_page_size => "10000"
# 执行的sql文件路径
statement_filepath => "sync\logstash-linux.sql"
# 设置定时任务间隔 含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务
#schedule => "* * * * *"
# 索引类型
type => "_doc"
record_last_run => false
# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
use_column_value => false
# 记录上一次追踪的结果值
last_run_metadata_path => "sync\track_time"
# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
tracking_column => "id"
# tracking_column 对应字段的类型
tracking_column_type => "numeric"
# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
clean_run => false
# 数据库字段名称大写转小写
lowercase_column_names => false
}
}
output {
elasticsearch {
# es地址
hosts => ["http://119.45.113.22:9200"]
# 同步的索引名
index => "databasebasic"
# 设置_docID和数据相同
document_id => "%{id}"
# 定义模板
#template_name = "myik"
# 指定模板所在位置
#template = "logstash-ik.json"
# 重写模板
#template_overwrite => true
# 关闭自动管理模板功能
#manage_template => false
}
# 日志输出:
#stdout {
# codec => dots
#}
}