jsp读取txt文件后,将txt文件内容分页显示

         昨天在工作中遇到了一个问题,客户要求从文件中(文件类型 .txt ) 读取出排名信息,然后分页来显示,以前做分页大多是从数据库中读取出数据,然后分页,从来没有试过读文件然后分页的。于是在网上搜索了一下~ 发现有很多帖子也在问这个问题,但是都没有很好的回答,然后我就试着自己做了下~  没想到竟然可以了。呵呵~~ 对高手来说应该是很简单的问题吧,不过对半瓶子的我来说还是有点成功的兴奋哈,把代码贴出来,供与我类似的初学者讨论:

只写有用的JSP代码,页面样式用 。。。代替了

 

<%
    BufferedReader bfR 
= null;
    ArrayList list 
= new ArrayList();
    try
    {
        
String str = null;
        
        bfR 
= new BufferedReader(new InputStreamReader(new FileInputStream(SortFile+FileName), "GB2312"));
        
while ((str = bfR.readLine()) != null)
        {
            number
++;
        
                 
String tempTrack = str.trim();                 
               
String[] arrVal = new String[3];
               arrVal 
= tempTrack.split("/|");
                 
if (arrVal.length < 3)
                continue;
            
            
String order_no = arrVal[0];       //排名
            
String member_name = arrVal[1];    //会员名称     
            
String profit = arrVal[2];            //盈利率/盈利额
            
            list.add(order_no);
            list.add(member_name);
            list.add(profit);             
        }
        
log.debug("---------list.size()--"+list.size());
    }catch(Exception e)
    {
        e.printStackTrace();
    }finally
    {
        try {
if(bfR != null)bfR.close();} catch (IOException e) {e.printStackTrace();}
    }    
%>
<%
    
/*---------------- 以下为分页信息 ---------------------*/
    
/* 分页信息定义 */
               
//
    
int total_page = 0;       
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
要在Web上读取HDFS中的文件内容,可以使用Java的Hadoop API和Servlet技术。以下是一个简单的Servlet代码示例,用于读取HDFS中的文件: ```java import java.io.IOException; import java.io.InputStream; import java.io.InputStreamReader; import java.io.BufferedReader; import javax.servlet.ServletException; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class ReadHdfsFileServlet extends HttpServlet { private static final long serialVersionUID = 1L; protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { String filePath = "/path/to/hdfs/file"; Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(conf); Path path = new Path(filePath); InputStream in = fs.open(path); BufferedReader reader = new BufferedReader(new InputStreamReader(in)); String line = null; StringBuilder sb = new StringBuilder(); while ((line = reader.readLine()) != null) { sb.append(line + "\n"); } reader.close(); in.close(); fs.close(); String content = sb.toString(); request.setAttribute("content", content); request.getRequestDispatcher("/file.jsp").forward(request, response); } } ``` 上述代码通过Servlet技术读取HDFS中的文件内容,并将内容存储到request属性中,然后转发到JSP页面进行显示。 在JSP页面中,可以使用EL表达式获取request属性中的文件内容,并进行显示。以下是一个简单的JSP代码示例: ```jsp <%@page contentType="text/html" pageEncoding="UTF-8"%> <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>Read HDFS File</title> </head> <body> <pre>${content}</pre> </body> </html> ``` 请注意,为了保证安全性和可靠性,建议将Hadoop的配置文件放在WEB-INF目录下,并使用绝对路径来读取HDFS文件。另外,如果读取文件较大,建议使用分页技术进行显示,以避免页面加载时间过长。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值