百度搜索案例

 利用跨域实现的模拟百度搜索提示的案例,关于这个案例在这里就不多说什么,我们直接上代码吧,关于跨域问题,感兴趣的小伙伴可以看一下我之前写的一篇:两种跨域方式:CORS--JSONP

<style>
        * {
            margin: 0px;
            padding: 0
        }
        
        input {
            width: 300px;
            height: 30px;
            border: 1px solid lightgray;
            margin-top: 150px;
            margin-left: 200px;
            padding-left: 5px
        }
        
        ul {
            width: 307px;
            list-style: none;
            margin-left: 200px;
            display: none;
        }
        
        li {
            height: 30px;
            line-height: 30px;
            border: 1px solid lightgray;
            padding-left: 5px
        }
    </style>
<script>
        function callbackDemo(response) {
            var oUl = document.getElementById('ulList');
            var html = '';
            if (response.s.length != 0) {
                oUl.style.display = 'block';
                //循环遍历,将响应回来的数据放入响应的元素标签里
                for (var i = 0; i < response.s.length; i++) {
                    html += '<li>' + response.s[i] + '</li>';
                }
            }
            oUl.innerHTML = html;
        }

        window.onload = function() {
            var oData = document.getElementById('inputSerach');
            var oUl = document.getElementById('ulList');
            oData.onkeyup = function() {
                //判断输入框里是否有值
                if (oData.value != '') {
                    var script = document.createElement('script');
                    //将路径放入script标签里
                    script.src = 'http://suggestion.baidu.com/su?wd=' + this.value + '&cb=callbackDemo';
                    document.body.appendChild(script);
                } else {
                    oUl.style.display = 'none';
                }
            }
        }
    </script>
 <input type="text" id="inputSerach" />
    <ul id="ulList">
        <li>123</li>
    </ul>

 

Java爬虫是一种通过编写程序来自动化获取网页信息的技术,而爬取百度全科案例则是指使用Java爬虫技术来获取百度搜索引擎中全科相关的信息。 实现这个案例首先要使用Java开发环境编写爬虫程序。程序可通过Java的网络编程技术模拟浏览器发送HTTP请求,然后获取响应的页面内容。在这个案例中,我们可以使用百度搜索全科相关的关键词,如“全科”、“全科课程”等。 首先,我们需要确定爬取的目标网页,即百度搜索结果页。然后,我们可以通过Java的网络编程技术构造URL对象,使用URLConnection建立连接,并发送HTTP请求。可以设置请求头信息,包括User-Agent、Cookie等。接下来,我们可以获取响应的输入流,并使用Java的IO流技术将输入流转化为字符串,获取网页内容。 获取网页内容后,我们可以使用正则表达式或者HTML解析库来提取需要的信息。对于百度搜索结果页,我们可以使用正则表达式或者HTML解析库来提取搜索结果的标题、URL链接等信息。然后,可以将提取到的信息存储到数据库或者文件中,便于后续的数据分析和处理。 值得注意的是,在爬取百度搜索结果页时,应该遵守相关法律法规和百度的爬虫规则,避免对网站造成过大的负担和侵犯他人的合法权益。 总结一下,使用Java爬虫技术实现百度全科案例可以通过模拟浏览器发送HTTP请求,获取百度搜索结果页的HTML内容,并提取需要的信息。这个案例可以帮助我们获取全科相关的信息,并进行后续的数据分析和处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小白小白从不日白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值