生成XML

生成xml 首先要把你要的数据压入一个map里面 然后写一个生成XML的函数

需要注意的是HashMap、TreeMap、LinkedHashMap的使用方法,还有生成xml时的CDATA标签用法

import java.io.*;
import java.util.Iterator;
import java.util.Map;
import java.util.TreeMap;
import java.util.Set;
class test  
{
    public static void main (String[] args)
    {
        String d1 = "date11111";
        String d2 = "date22222";
        String d3 = "date33333";
        String d4 = "date44444";
        String d5 = "date55555";

        /*一般情况下,使用频率:HashMap>TreeMap>LinkedHashMap
        HashMap里面存入的键值对在取出的时候是随机的,它根据键的HashCode值存取数据,在Map 中插入、删除和定位元素,HashMap会更好。
        TreeMap取出来的是排序后的键值对。要按自然顺序或自定义顺序遍历键,TreeMap会更好。
        LinkedHashMap 是HashMap的一个子类,需要输出的顺序和输入的相同,LinkedHashMap会更好。
        */
        Map<Object, String> map = new TreeMap<Object, String>();
        map.put("date1",d1);
        map.put("date2",d2);
        map.put("date3",d3);
        map.put("date4",d4);
        map.put("date5",d5);
        System.out.println(makeXml(map));
    }

    public static String makeXml(Map<Object, String> parameters) {  
        StringBuffer sb = new StringBuffer();  
        sb.append("<xml>");  
        Set es = parameters.entrySet();  
        Iterator it = es.iterator();  
        while (it.hasNext()) {  
            Map.Entry entry = (Map.Entry) it.next();  
            String k = (String) entry.getKey();  
            String v = (String) entry.getValue();  
            /*在标记CDATA下,所有的标记、实体引用都被忽略,而被XML处理程序一视同仁地当做字符数据看
            sb.append("<" + k + ">" + "<![CDATA[" + v + "]]></" + k + ">");
            */
            sb.append("<" + k + ">" + v + "</" + k + ">");  
        }  
        sb.append("</xml>");  
        return String.valueOf(sb);  
    } 
}

运行结果:

<xml><date1>date11111</date1><date2>date22222</date2><date3>date33333</date3><date4>date44444</date4><date5>date55555</date5></xml>
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当需要爬取网页数据并生成XML格式文件时,可以使用Python中的一些库来实现。以下是一种常用的方法: 1. 首先,你需要安装并导入`requests`库来发送HTTP请求,以获取网页内容。可以使用以下命令来安装: ``` pip install requests ``` 2. 接下来,你需要安装并导入`beautifulsoup4`库来解析HTML或XML文档,提取所需数据。可以使用以下命令来安装: ``` pip install beautifulsoup4 ``` 3. 然后,你可以使用`requests`库发送GET或POST请求获取网页内容。例如,使用`requests.get()`方法发送GET请求: ```python import requests url = "http://example.com" # 替换为你要爬取的网页URL response = requests.get(url) content = response.text # 获取网页内容 ``` 4. 接下来,你可以使用`beautifulsoup4`库解析网页内容,并提取所需的数据。例如,使用`BeautifulSoup`类解析HTML或XML文档: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(content, "html.parser") # 解析HTML或XML文档 # 提取所需的数据 data = soup.find("div", {"class": "example"}) ``` 5. 最后,你可以使用Python内置的`xml.etree.ElementTree`模块创建XML文件,并将提取到的数据写入XML文件中。例如: ```python import xml.etree.ElementTree as ET root = ET.Element("root") # 创建根节点 child = ET.SubElement(root, "child") # 创建子节点 child.text = data.text # 设置节点文本 tree = ET.ElementTree(root) # 创建ElementTree对象 tree.write("data.xml", encoding="utf-8", xml_declaration=True) # 将数据写入XML文件 ``` 以上就是使用Python爬虫生成XML文件的基本流程。你可以根据自己的需求对代码进行修改和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值