.net使用OpenPop自动收邮件,并将邮件内容存入数据库

1.下载OpenPop,将OpenPop添加到解决方案中。

2.

 1   else if (e.CommandName == "ConnectTest")
 2                 {
 3                     string sSERVER_URL = new DynamicControl(this, "SERVER_URL").Text;
 4                     string sPORT = new DynamicControl(this, "PORT").Text;
 5                     string sEMAIL_USER = new DynamicControl(this, "EMAIL_USER").Text;
 6                     Guid gINBOUND_EMAIL_KEY = Sql.ToGuid(Application["CONFIG.InboundEmailKey"]);
 7                     Guid gINBOUND_EMAIL_IV = Sql.ToGuid(Application["CONFIG.InboundEmailIV"]);
 8                     string sEMAIL_PASSWORD = Sql.ToString(ViewState["smtppass"]);
 9                     if (!Sql.IsEmptyString(sEMAIL_PASSWORD))
10                         sEMAIL_PASSWORD = Security.DecryptPassword(sEMAIL_PASSWORD, gINBOUND_EMAIL_KEY, gINBOUND_EMAIL_IV);
11                     ReceiveEmailByOpenPop(sEMAIL_USER, sEMAIL_PASSWORD);
12                 }
13                 else if (e.CommandName == "ReceiveTest")
14                 {
15                     Guid gINBOUND_EMAIL_KEY = Sql.ToGuid(Application["CONFIG.InboundEmailKey"]);
16                     Guid gINBOUND_EMAIL_IV = Sql.ToGuid(Application["CONFIG.InboundEmailIV"]);
17                     string sEMAIL_PASSWORD = Sql.ToString(ViewState["smtppass"]);
18                     if (!Sql.IsEmptyString(sEMAIL_PASSWORD))
19                         sEMAIL_PASSWORD = Security.DecryptPassword(sEMAIL_PASSWORD, gINBOUND_EMAIL_KEY, gINBOUND_EMAIL_IV);
20 
21                     string sSERVICE = new DynamicControl(this, "SERVICE").SelectedValue;
22                     string sSERVER_URL = new DynamicControl(this, "SERVER_URL").Text;
23                     int nPORT = new DynamicControl(this, "PORT").IntegerValue;
24                     bool bMAILBOX_SSL = new DynamicControl(this, "MAILBOX_SSL").Checked;
25                     string sEMAIL_USER = new DynamicControl(this, "EMAIL_USER").Text;
26                     string sMAILBOX = new DynamicControl(this, "MAILBOX").Text;
27                     StringBuilder sbErrors = new StringBuilder();
28                     if (String.Compare(sSERVICE, "pop3", true) == 0)
29                     {
30                         PopUtils.Validate(Context, sSERVER_URL, nPORT, bMAILBOX_SSL, sEMAIL_USER, sEMAIL_PASSWORD, sbErrors);
31                         ctlDynamicButtons.ErrorText = sbErrors.ToString();
32                     }
33                     else if (String.Compare(sSERVICE, "imap", true) == 0)
34                     {
35                         ImapUtils.Validate(Context, sSERVER_URL, nPORT, bMAILBOX_SSL, sEMAIL_USER, sEMAIL_PASSWORD, sMAILBOX, sbErrors);
36                         ctlDynamicButtons.ErrorText = sbErrors.ToString();
37                     }
38                     else
39                     {
40                         throw (new Exception("Unknown/unsupported mail service: " + sSERVICE));
41                     }
42                 }

 

转载于:https://www.cnblogs.com/kangjing/p/5497461.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,我将尝试用中文回答你的问题。 将爬取内容进行数据清洗并存入 MySQL 数据库的基本流程如下: 1. 使用爬虫工具爬取网页内容,并将其存储到本地。 2. 对爬取的内容进行数据清洗,包括去除无用字符、空格和换行符,将数据转换为标准格式等。 3. 创建 MySQL 数据库,并在其中建立表来存储数据。 4. 使用 Python 的 MySQLdb 模块或者 PyMySQL 模块连接数据库,并将清洗后的数据插入到 MySQL 数据库中。 5. 在插入数据时,可以使用事务机制来保证数据的一致性和完整性。 6. 关闭数据库连接。 希望这些信息能帮到你。如果你还有其他问题,欢迎继续提问。 ### 回答2: 将爬取的内容进行数据清洗并存储到MySQL数据库中,可以通过以下步骤完成: 1. 爬取内容使用Python的爬虫库(如BeautifulSoup、Scrapy等)编写爬虫程序,获取网页的源代码或API返回的数据。 2. 数据清洗:对爬取到的内容进行数据清洗,包括去除HTML标签、过滤无用信息、处理特殊字符等。可以使用Python的字符串处理函数、正则表达式等工具来实现。 3. 连接到MySQL数据库使用Python的MySQL Connector等库连接到MySQL数据库,并建立与数据库的连接。 4. 创建表和字段:在MySQL数据库中创建一个表,定义需要存储的字段,包括爬取内容的标题、时间、正文等。 5. 数据插入:将清洗后的数据插入到MySQL数据库中的对应表中。可以使用SQL语句的INSERT INTO命令来实现,或者使用Python的ORM库(如SQLAlchemy)来简化操作。 6. 数据库管理:可以使用MySQL的管理工具(如phpMyAdmin、Navicat等)查看和管理数据库中的表和数据。 总结来说,将爬取内容进行数据清洗并存储到MySQL数据库中,包括爬取内容的清洗、数据库的连接、表和字段的创建、数据的插入等步骤,通过编写爬虫程序和使用相应的库来实现。这样可以方便地对爬取的数据进行管理和分析。 ### 回答3: 将爬取的内容进行数据清洗并存入MySQL数据库是一个常见的数据处理任务。下面是一个简单的实现过程: 1. 首先爬取网页内容使用Python的爬虫库(如BeautifulSoup、Scrapy等)获取需要的数据,并将其保存为一个数据集合(列表、字典等)。 2. 对获取的数据进行清洗。清洗数据的过程包括去除噪声数据、处理缺失值、处理重复值、进行数据类型转换等。通过Python的数据处理库(如Pandas)可以方便地进行这些操作。 3. 连接MySQL数据库使用Python的MySQL连接库(如PyMySQL)连接到MySQL数据库,创建一个数据库表来存储爬取的内容。 4. 创建数据库表。根据清洗后的数据集合的结构,在MySQL数据库中创建一个对应的表格,并定义各字段的类型。 5. 将清洗后的数据插入到MySQL数据库中。使用SQL语句构造插入数据的操作,并通过Python的MySQL连接库执行该语句。 6. 关闭MySQL连接。在完成数据插入后,使用Python的MySQL连接库关闭与MySQL数据库的连接。 使用这个流程,可以将爬虫获取到的内容进行数据清洗,并存入MySQL数据库中。这样可以方便地对数据进行后续的分析和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值