台湾大学外文系颜元叔教授的一个演讲!

 台湾大学外文系颜元叔教授的一个演讲!
打開天窗說亮話,中國的前途不在臺灣(什麼叫做“臺灣經驗”?可笑!),中國的前途不在港澳,不在海外華人,不在舔洋人後跟的學運民運小丑,中國的前途在中國大陸,在那13億心含“鴉片戰爭”之恥,心含“八年抗戰”之恨的中國人身上!他們的衣衫襤褸地製造出原子彈、氫彈、中子彈,他們蹲茅坑卻射出長征火箭和載人飛船,他們以捏泥巴的雙手舉破世界紀錄,他們磨破屁股奪回整打的奧運金牌,他們重建唐山而成聯合國頒獎之世界模範市……同胞們,他們為的是什麼?沒有別的:他們愛此“中華”,他們不能讓“中華”再隕落! 

為什麼美國人那麼愛美國,為什麼日本人那麼愛日本,為什麼有些走向“世界公民”(可笑的癡夢!)的中國人就不愛中國?愛中國,不再只是口號,不再只是情緒,而是要像大陸50年,苦心孤詣胼手胝足,不僅流汗甚至流血地幹,幹,幹!把大慶油田打出來,把北大荒墾出來,把葛洲壩攔江築起來……難以屈指的各種建設,無數的建設,把中國建設起來,這才是愛中國!而中國已經被熱愛了50年;她將繼續被熱愛,被那群建國者,真正的建國者,所熱愛(我手邊這部大陸編《新英漢辭典》,這部大陸版《辭源》,編得如此周全,印製如此精緻,細小的鉛字用放大鏡看都劃劃清晰,而且從來沒有看到一個錯字:我為他們的心血表現而發抖!而我們臺灣,50年來,哪部英漢辭典不是翻譯剪貼日作!慚愧哪,臺灣經驗!)。 

一輩子吃兩輩子苦拚搏的大陸 
大陸上的人說,他們一輩子吃了兩輩子的苦。痛心的話,悲痛的話,卻也是令人肅然起敬的話。試問:不是一輩子吃兩輩子的苦,一輩子怎得兩輩子甚至三輩子四輩子的成就?50年前中國落後西方百年,50年後還落後10年20年(基礎科學若干部門已與西方比肩,甚至超前)。這不是一輩子吃兩輩子苦成就的麼?50年前中國參加奧運亦總是扛著零蛋回,50年後中國的奧運成績已揚名世界。誰敢再說中國人是“東亞病夫”?這就是“吃兩輩子苦”的成就!我的老同學傅孝先留在大陸的姐姐,搞化學研究的高級科學家,52歲就死了,是活活地給研究工作累死的!累死,多值得的死!她不累死,千千萬萬的她與他不累死,中國科學怎麼迎頭趕上西方!怎麼出人頭地!“革命不是請客吃飯”,建設文明文化也是要死人的??尤其是要“超英趕美”搞建設;而不“超英趕美”,永遠跟在英美之後吃英美屁,中華怎麼振興,怎麼出頭! 

所以,50年來,中國大陸是“煉獄”。什麼是“煉獄”?就是經過火的洗禮,能夠升入天堂。中國過去50年的苦難,是“煉獄”的苦難,是有提升功能的苦難,是有建設性的苦難,是追求成就的苦難。就像你要考上台大而一年不看電影的苦難,程度不同,性質則一。吃得苦中苦,方為人上人。苦出頭來的中國人,如今在人類中已經嶄露頭角了。所以50年的苦難不是負面的、消極的、毀滅性的;它是中國的大蛻變,政治蛻變、社會蛻變、到精神蛻變(現在的中國人不再是“差不多先生”,而是競泳則爭半掌之長,射衛星不出毛病的“精准先生”)。而我們在臺灣,僥倖而不僥倖地躲過了這場“煉獄”的煎熬,50年隔岸觀火躲過了這場火之洗禮。就個人的福利言,我們是幸運者;就重建民族國家的責任言,我們是十足的逃兵!我們就像肢體殘障者站在路邊,看著一隊隊的男女好漢走上戰場,看著他們、她們的屍體被抬回來,或者看著他們、她們流血呻吟地爬回來,裹好創傷又沖上去。我們呢,隔岸觀火;而他們呢?他們拼搏,他們打仗,他們打的是我們的仗,打的是150年來的民族復興之仗,打的是為全體中國人爭一口氣的仗!而我們呢?我們還在訕笑他們的廁所沒有門,訕笑他們的所得低,甚至視他們為仇敵!我們究竟是什麼?一群沒有良心的市儈?一群沒有人性的畜牲? 

“中國之光”中國人共用 
然而,一個民族國家的羞辱,像霧一般落下來,無可取捨,你非承受不可(就算你入了美國籍,認同美國,為美國去中東作戰;你若戰死,你的仆告中仍然是“美籍華人”,而不會像別人一樣成為“美國人”)!何必騙自己啊,昨日今日以及今後的三五萬日,民族主義還都是當令的食品,不認同自己的民族只有做異族之奴。同理,一個民族國家的榮譽,也無可取捨,它會像太陽一樣,你非被照射到不可。中國今後的光榮,苦盡甘來的光榮,你是無法拒絕而非接受一份不可,連反中國的中國人也將同浴于中國的光輝中!這就是說,我們在臺灣的中國人管你是台獨、獨台、或統派、或無黨無派,一旦生為中國人,今後你將分得一份“中國之光”。雖然我們沒有為這“中國之光”之誕生做出什麼貢獻;無功受祿,我們實在太僥倖!僥倖之餘,我們至少要“吃果子拜樹頭”吧?總不能吃了果子,又對那棵樹冷嘲熱諷或視之為敵吧。這是什麼樣的一種肥心症,象皮病! 

中國的問題很複雜,其實也很簡單,簡單得只有一個字:幹,幹,幹!多加三個字:苦幹,實幹,硬幹。因為中國缺乏的就是成就,要成就只有幹。幹,說來容易做來難。個人想幹,個人有惰性;團體想幹,團體會渙散。這時候,你自己擺脫不了惰性,就得有人鞭笞你;團體反側於渙散,就得有人嚴加管束。其實,就像你考大學,你自己督促不了自己,就得有師長有父母在後面鞭策,甚至補習班鞭策也是應該,假使你想考上大學,而考上大學就是一切!就中國言,建設國家就是一切!於是,在中國的問題上,你就知道為什麼有集體主義之必要,社會主義之必要,權威專制之必要! 


當然,假使中國有1萬年的悠閒時間來完成她的現代化,那麼一切慢慢來,隨各人今天做一點明天做一點,1萬年做不成,10萬年總可以做成吧。可是,中國原已落後,而這是一個競爭白熱化的世界,我們哪能悠閒!我們不僅要快,而且要比別人快;不快不足以競爭,不比別人快不足以超前,至少迎頭趕上。這就更顯出專制、集體、極權之必要!因為,只有這種精神,這種體制,才能團結一切的人,團結一切的意志,一切的力量,眾志成城,萬眾一心,處處攻關,力成大業。就算是西方人笑諷中國人是“藍螞蟻”,我們為建國卻必須做“藍螞蟻”,必須是千千萬萬的藍螞蟻,像螞蟻一般單純一致,才能造就出比我們個人大千千萬萬倍的大堤壩。再造中華,必須是每個人捐棄一己之見,乃至捐棄一己之身,為的是中國這個大堤壩之建成。要講求個人意志,要講求個人欲望,個人利害,必然是蟻群四下潰散,永遠建不成任何東西!而中國就是要建設,要成就。 

這就是為什麼,為歷史上此刻的中國,我膽敢高呼:反民主!反自由!反西方民主!反西方自由!抽象地說,自由民主絕非絕對之善;而落實在歷史的流程中,對此時此地的中國,它們是相對之“惡”!因為,自由只會使中國渙散,民主只會使中國崩潰。有人也許會譏誚:中國人為何如何可憐,竟然承受不了自由民主之“福”!我要反問以這種西方價值為價值的人:自由有什麼了不起!民主又好在哪里!日本、德國的稱雄,是它們的民主自由超過英、美?英國如今衰微了,是它的自由衰微?民主衰微?美國今日超強,是它的自由超強?民主超強?而美國的自由民主擴散開來,正好變成美帝國主義的原動力!不是煙草資本家有剝削的自由,臺灣怎麼變成美煙的垃圾場!“鴉片戰爭”還不是一個君主立憲篤信基督的英國做出來的“撒旦之戰”!而最重要的關鍵是:這些東西對中國有什麼好處?這些東西能幫助中國達成中國的歷史目標?曾經有學生問我:老師,中國民主重要還是強大重要?我說:廢話,當然強大重要。中國若不強大,而中國自由民主了,中國可沒有什麼東西可以保證,中國不還是清末民初的中國,不還是次殖民地的中國,不還是“華人與狗不得入內”的中國!所以,中國人必須以一條褲帶束緊千萬億腰杆,中國人才得解放,自中國近代史中解放!自列強的囹圄桎梏中解放! 

西方人是充分瞭解這13億“藍螞蟻”的可怕,這13億眾志成城的“藍螞蟻”的可怕,於是他們用“自由民主”的口號,企圖分化我們,打散我們,劃割我們,製造我們的內在矛盾,讓我們自己互相抵消。因為,拿破崙早已叮囑他們,“讓這條龍睡吧,他一醒來,西方世界就麻煩了。”可憐可鄙亦可悲那些蠢才,連這點簡單道理都豬油蒙心看不透,一味地接受西方價值,試圖分裂中國,為西方的終極利益服務……讓西方繼續為世界之主,中國為奴,而尚自以為是為了中國好。我告訴你們:當西方人對你翹起拇指叫“好”時,你已是一個不折不扣的賣國賊!除了你們這一小撮豬油蒙心的小丑之外,天下任何聰明人都深知“人不自私,天誅地滅”——民族利益就是我們最大的私;而為國自私,更是西方帝國主義的當行本色,美國人更是如此。世界已被西方帝國主義dominate二三百年,洋奴們,心頭被殖民的洋奴們,臺灣的“倭奴”和香港的“英奴”們,難道你們的“婢妾惰性”如此深重,如此安於為奴現況,不也想換換主子,讓中國人騎在世界之屋脊上!? 


這條路中國一定會繼續走下去!中國已經強大,明日的中國若不更強大,那麼天理就不成其為天理了。反省我的愛國情操,似乎濃烈得近乎瘋狂;其實,我只是一個“機會主義者”,只是一個識時務的人而已。歷史大趨勢這麼明明白白地擺在面前,我跟著它走,實在只是大潮流的跟屁蟲。但是,我樂於做這麼個小蟲子,因為今後中國的歷史命運之完成將正是我一生夢想之實現。我如今是每天喜孜孜看著中國把世界金牌一塊塊摘下。 

转载于:https://www.cnblogs.com/summerboy/archive/2005/07/15/193387.html

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值