终于跌入信息服务陷阱……

继莫名其妙拥有两项短信包月扣费服务的悲惨遭遇之后,我又中招了……这次好像是自找的。

早上起床,发现手机上有一个未接来电,昨晚上7点钟,陌生手机号码。用固定电话打过去,告知我是长途。我想了一下,可能是家乡的亲戚?问我国庆是否要回去?也没想太多,就用“17969+0+号码”的方式打了过去。结果话筒那端传来了自动语言服务——“您好,香港**集团为庆祝公司成立*周年,特举办……”还没等它罗嗦完,我赶紧挂掉了。

无数受骗案例在我脑袋里打转,传说中拨到信息台有可能损失500块的话费,那我不是要吐血三升了么?先上网去查号码归属地,来自广东珠海,为什么这种诈骗都出现在广东和福建?因为那里充满了爱么?

开始拨打10060,北京网通固定电话服务热线,接线员是个男的,很礼貌地告诉我这事儿不归他们管,虽然我是用固定电话拨的,但是我拨的是手机号码,所以应该打中国移动的客服热线。 

于是拨打10086,接线员是个女的,她倒没有再推诿,只是告诉我遇到这种情况,我只能等固话的话费单子出来以后再打110报警,她还安慰我说这种信息服务的费用最高也不过30块。30!难道就不是钱么?为什么他们不可以立刻查一下这个手机号码是不是诈骗,然后把由这个号码产生的费用扣除掉?好吧,她说这是公安局的事情。那么我提出他们应该封掉这个号码,以让其他人不再受骗上当。她好像很为难,在我的反复要求下才记下了“13750041485”这个骗子号码,并且没有承诺将对该号码采取任何措施。

这种服务,运营商可以抽成50%吧?越多人受骗他们是不是越高兴呢?就算我报警,那话费会返还回来吗?我一点信心都没有。看来以后未接电话的陌生号码都没有必要打回去,真有事情的还会再打过来,没事儿添乱的就去死吧!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
以下是雅可比迭代和高斯赛德尔迭代的介绍和示例代码: 雅可比迭代(Jacobi Iteration)是一种迭代方法,用于解线性方程组。它的基本思想是将线性方程组的每个未知数的迭代计算分别放在一个循环中进行,每次迭代时使用上一次迭代得到的其他未知数的值。具体步骤如下: 1. 初始化未知数的初始值。 2. 根据线性方程组的每个方程,使用上一次迭代得到的其他未知数的值来计算当前未知数的值。 3. 重复步骤2,直到满足收敛条件。 以下是一个使用雅可比迭代方法解线性方程组的示例代码: ```python import numpy as np # 定义线性方程组的系数矩阵A和常数向量b A = np.array([[4, -1, 1], [4, -8, 1], [-2, 1, 5]]) b = np.array([7, -21, 15]) # 定义迭代次数和收敛条件 max_iterations = 100 tolerance = 1e-6 # 初始化未知数的初始值 x = np.zeros_like(b) # 迭代计算 for iteration in range(max_iterations): x_new = np.zeros_like(x) for i in range(len(b)): x_new[i] = (b[i] - np.dot(A[i, :i], x[:i]) - np.dot(A[i, i+1:], x[i+1:])) / A[i, i] if np.allclose(x, x_new, atol=tolerance): break x = x_new # 输出迭代计算过程中的数值和最终结果 print("Iteration:", iteration+1) print("Solution:", x) ``` 高斯赛德尔迭代(Gauss-Seidel Iteration)是雅可比迭代的一种改进方法,它在每次迭代时使用已经更新过的未知数的值来计算当前未知数的值。具体步骤如下: 1. 初始化未知数的初始值。 2. 根据线性方程组的每个方程,使用已经更新过的其他未知数的值来计算当前未知数的值。 3. 重复步骤2,直到满足收敛条件。 以下是一个使用高斯赛德尔迭代方法解线性方程组的示例代码: ```python import numpy as np # 定义线性方程组的系数矩阵A和常数向量b A = np.array([[4, -1, 1], [4, -8, 1], [-2, 1, 5]]) b = np.array([7, -21, 15]) # 定义迭代次数和收敛条件 max_iterations = 100 tolerance = 1e-6 # 初始化未知数的初始值 x = np.zeros_like(b) # 迭代计算 for iteration in range(max_iterations): for i in range(len(b)): x[i] = (b[i] - np.dot(A[i, :i], x[:i]) - np.dot(A[i, i+1:], x[i+1:])) / A[i, i] if np.linalg.norm(np.dot(A, x) - b) < tolerance: break # 输出迭代计算过程中的数值和最终结果 print("Iteration:", iteration+1) print("Solution:", x) ```
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值