apache服务器 上传文件大小,修改Nginx与Apache上传文件大小限制

我们使用 ngnix 做 web server 的时候,Nginx 对上传文件的大小有限制。

这个时候我们要修改 Nginx 参数。

sudo vim /etc/Nginx/Nginx.conf

#在http段里面添加:

client_max_body_size 100m; //举例设置上传最大值为100m

systemctl restart Nginx

修改 Apache 上传文件最大值限制

打开 PHP.ini, 找到下面的项并修改之。下面以上传100M为例。

sudo vim /etc/PHP.ini

file_uploads = on ;是否允许通过HTTP上传文件的开关。默认为ON即是开

upload_tmp_dir ;文件上传至服务器上存储临时文件的地方,如果没指定就会用系统默认的临时文件夹

upload_max_filesize = 100m ;望文生意,即允许上传文件大小的最大值。默认为2M

post_max_size = 100M ;指通过表单POST给PHP的所能接收的最大值,包括表单里的所有值。默认为8M

一般地,设置好上述四个参数后,上传<=8M的文件是不成问题,在网络正常的情况下。

但如果要上传>8M的大体积文件,只设置上述四项还一定能行的通。除非你的网络真有100M/S的上传高速,否则你还得关心关心下面的参数:

max_execution_time = 600 ;每个PHP页面运行的最大时间值(秒),默认30秒

max_input_time = 600 ;每个PHP页面接收数据所需的最大时间,默认60秒

memory_limit = 128M ;每个PHP页面所吃掉的最大内存,默认8M

全部设置好之后,重启

systemctl restart httpd

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程小技巧。

总结

如果觉得编程之家网站内容还不错,欢迎将编程之家网站推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。

如您喜欢寻找一群志同道合、互帮互助的学习伙伴,可以点击下方链接加入:

编程之家官方1群

编程之家官方2群

编程之家官方3群

编程之家官方4群

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
如果在使用 Flink 和 Phoenix 时出现了 jar 包冲突,可以尝试以下解决方法: 1. 排除冲突的 jar 包 在 Maven 或 Gradle 依赖中可以指定排除某些 jar 包的依赖,例如: ``` <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-kafka_2.11</artifactId> <version>${flink.version}</version> <exclusions> <exclusion> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> </exclusion> </exclusions> </dependency> ``` 这里排除了 `flink-connector-kafka_2.11` 的依赖中的 `kafka-clients` jar 包。 2. 引入 shade 插件 可以使用 Maven 的 shade 插件将依赖的 jar 包重命名并打包到一个新的 jar 包中,避免 jar 包冲突,例如: ```xml <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <version>3.2.3</version> <configuration> <relocations> <relocation> <pattern>com.google.common</pattern> <shadedPattern>shade.com.google.common</shadedPattern> </relocation> </relocations> </configuration> </plugin> ``` 这里将依赖的 `com.google.common` 包重命名为 `shade.com.google.common`。 3. 修改 Flink 的 classpath 可以将依赖的 jar 包放到 Flink 的 classpath 中,例如在启动 Flink JobManager 或 TaskManager 时指定 classpath: ``` ./bin/flink run -m yarn-cluster -yn 3 -c com.acme.MyFlinkJob -classpath "/path/to/dependency/*" /path/to/MyFlinkJob.jar ``` 这里将依赖的 jar 包放到了 `/path/to/dependency/` 目录下,并通过 `-classpath` 参数将该目录下所有 jar 包加入到 Flink 的 classpath 中。 希望这些方法可以帮助你解决 jar 包冲突问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值