正面的词语

正面的词语默认分类

2009-12-27 22:06:35

 

srcurl:http://blog.163.com/jsjrzq@126/blog/static/285848902009112710635168/


   我们经常听到家长对自己的孩子说‘不要哭’,结果孩子收到的信息是‘哭’,心理暗示也是‘哭’,结果孩子不但没有停止哭泣,而且哭泣的声音更大,时间延续更长!再比如,我邀请各位朋友此时此刻不要去想老虎,不要去想白色老虎,也不要想花色老虎,更不要想母老虎…那请问各位现在在想什么呢?不是想老虎能想什么呢?因此这就是一种心理暗示!在二战期间,德国纳粹份子曾经做过一个实验,把抓来的俘虏兵戴上眼罩,双手反绑在后面,放到地下室,在俘虏兵的手腕处用锋利的冰块用力割一下,然后把事先在俘虏兵头顶处准备好的自来水龙头扭开,水就一直滴在俘虏兵身后的空桶中,俘虏兵以为是自己身上再流血,奇迹发生,不到24小时俘虏兵以为自己身上的血留尽了,也就死了!我们说心理暗示的力量是巨大的,不仅仅今天我们可以在缓解压力上,事实上催眠也在使用,同时还应用在医学等领域!

   正面的词语的对应的就是负面的词语。带有“不”字开头的基本上归为“负面的词语”!在沟通表达或反馈时时尽量用正面的词语。因为正面的词语是把焦点放在未来,解决问题上,而负面的词语是把关注点放在过去,过去的事情可能是成功还是不成功都没有什么意义了!把关注点放在过去其实就是一种发泄,发泄只能带来更多的压力,沉浸在过去不能自拔,没有勇气及动力面对未来!美国最负盛名的心理治疗专家、杰出的心灵导师、著名作家和演讲家露易丝?海曾经说过‘你把注意力放在哪里,哪里就会成长 !而且会成为你生活中永久存在的东西!你对不想要的东西想的越多,你创造的不想要的东西就越多.你不喜欢的东西会跟着你。’华人世界的国际级NLP大师:李中莹也分享过‘我们脑袋凡是收到含有不字的指令,总是把它删除,这样的结果只有两点:你不想对方做的事,他偏偏就做了;他不会去做你想他做的事,因为你还没有告诉他。’

   下面廖老师把2008年在广西电网《电力生产安全心理学提升训练》课堂上化解“负面词语”为“正面词语”的35个案例整理如下与各位朋友分享:

1、不要误操作→按正确的操作规程操作

2、不要上网→上班做与工作有关的事情

3、不要做与工作无关的事情→上班做与工作有关的事情

4、不要迟到→请准时在8点前到岗

5、不要睡岗→上班时候认真上班,休息时间要充分休息好,遵章守纪

6、不要出事→注意按遵章守纪,按操作规程操作,安全在心中

7、不要急→心情要放松点,有节奏地工作

8、不要松懈→要提高警惕

9、不要忘记→要记住

10、工作不要喝酒→工作时严格遵守相关规章制度

11、不要违章→要养成遵章守纪是的好习惯

12、不要开小差→注意力要集中

13、不要分心→要镇定

14、你总是这样→要如何做会更好

15、不要做与工作无关的事→专心做好该负责的工作

16、不要误登带电设备→确保与带电设备保持安全距离

17、不行→想想办法,你一定能行的

18、不能→想想办法,你一定能能的

19、不专心→如何才能确保专心的状态

20、不可靠→如何才能可靠些

21、不安全→如何才能安全些

22、不要问我→什么时候可以问我或自己动动脑筋

23、不要抽烟→不抽烟,我们可以做些什么呢或抽烟请在规定的时间到吸烟区!

24、不要那么笨→如何做反应会更灵活些

25、不要粗心→要自信

26、不要慌张→要镇定

27、不要乱想→要集中精力

28、不要乱来→要按规定办事

29、不要烦我→要自己思考

30、不要说了→请静默

31、开车不要看美女→看美女时应停车

32、不要放松警惕→要提高警惕

33、不要盲目操作→要正确操作

34、不要走错间隔→进间隔前要核对间隔编号及设备名称等

35、不要忘记关门窗→离开时记得关好门窗

   正面词语的技巧操作简单容易掌握,马上操作立即就成效,我们在家庭里,生活中、工作中都可以随时关注随时调整,廖老师相信各位朋友通过负面词语的化解收获到事半功倍的成效,在此廖老师祝福每一位朋友:快乐工作,幸福生活,和谐人生!

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个基于CNN的文本情感极性分析代码示例,使用了正面和负面情感词语: ``` import numpy as np import tensorflow as tf from tensorflow.keras.preprocessing.sequence import pad_sequences # 定义正面和负面情感词语 pos_words = ['good', 'great', 'fantastic', 'love', 'like'] neg_words = ['bad', 'terrible', 'awful', 'hate', 'dislike'] # 构建词汇表 vocab = set(pos_words + neg_words) # 转换文本为数字序列 def text_to_sequence(text): seq = [] for word in text.lower().split(): if word in vocab: if word in pos_words: seq.append(1) else: seq.append(0) return seq # 构建模型 model = tf.keras.Sequential([ tf.keras.layers.Embedding(len(vocab) + 1, 128, input_length=100), tf.keras.layers.Conv1D(64, 5, activation='relu'), tf.keras.layers.GlobalMaxPooling1D(), tf.keras.layers.Dense(32, activation='relu'), tf.keras.layers.Dense(1, activation='sigmoid') ]) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型 x_train = pad_sequences([text_to_sequence("This movie is great"), text_to_sequence("I hate this book")], maxlen=100) y_train = np.array([1, 0]) model.fit(x_train, y_train, epochs=10, batch_size=1) # 预测新的文本 def predict_sentiment(text): x = pad_sequences([text_to_sequence(text)], maxlen=100) pred = model.predict(x)[0] if pred > 0.5: return "Positive" else: return "Negative" print(predict_sentiment("This book is fantastic")) print(predict_sentiment("I dislike this movie")) ``` 这个示例代码实现了一个简单的基于CNN的文本情感极性分析模型。模型的输入是一个数字序列,其中正面情感词语对应的数字是1,负面情感词语对应的数字是0。模型的输出是一个二元分类结果,表示文本的情感极性是正面还是负面。在训练过程中,我们使用了两个样本来训练模型。在预测新的文本时,我们将文本转换成数字序列,并将其输入到模型中进行预测。模型的输出值大于0.5表示预测为正面情感,小于等于0.5表示预测为负面情感。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值