32岁计算机学什么,他主修计算机专业,却在32岁时突然要画画!

马精虎,32岁时从计算机专业转行开始画画,师从刘溢学习古典油画,他的作品融合了古典主义、超现实主义和象征主义元素,试图建立个人的文艺复兴式绘画语言。马精虎认为画画是一种表达自己的方式,他的画作并不强求表达特定观点,而是陈述事实,避免明确观点的“法西斯”倾向。
摘要由CSDN通过智能技术生成

原标题:他主修计算机专业,却在32岁时突然要画画!

29dd7ffe628625e376e08d8a90fb0c4f.png

马精虎

江苏江浦, (1974-)

作品欣赏

4e9a54ea23cd328f6e942dc0fa418761.png

马精虎,出生于1974年,江苏南京人,1994年毕业于晓庄师范,2000年毕业于南京艺术学院计算机专业,当代著名青年艺术家。2006年进入著名画家刘溢先生的画室学习古典油画技法与创作。现居北京,擅长写实油画。

b31158b97a0e2e6c3867dbea4423c824.png

在学习期间他掌握了醇正娴熟的古典主义绘画语言,在继承古典主义同时,在其油画作品中也看到了超现实主义、象征主义以及某种神秘主义的影响,他一直致力于文艺复兴时期的绘画技法与当下敏感问题的结合,探索当代观念与现实生活的古典主义表述方式,或者说他企图建立个人文艺复兴式绘画语言的现代转换,实践着传统绘画的现代表现。

5fe17d7a32fb6328063033980153b87d.png

马精虎说,画画并不是一件多么神圣的事儿,在他看来,它跟卖菜、开店一样,不过是一种职业,用来表达自己而已。 而自己在32岁的时候才突然要画画,也不过是始于一场逃避——“眼下的抽屉,装不下自己。”

a497abeb646ea0b10d56a0f011b9fd15.png

马精虎最终用这样一句话概括出画画之前自己的状态,声音比之前谈论其他时稍微低沉一些。老实说,不是科班出身的马精虎,却能画出我们所见的那些画,在他身上,我们还期待着更多的“意料之外”。

75efe043ea2f4376bd20803ec7d878ea.jpeg

让一个主修计算机专业的人,在而立之年突然拿起画笔的,竟然不是什么重大事件。

“ 2005年,我们路过一个摆地摊卖书的,我看到了一幅挂历,封面是那个大眼睛的西藏小女孩儿。我就突然想,要是能这样安静、单纯地活下去,也挺好。然后我就跟太太说了,当晚就做出了以后画画的计划。”

没有丝毫的仪式感,听上去也有点随意,但 至今马精虎都对自己的决定十分自信:“人生下来是没有悬念的,怎么变得有趣是一直在寻找的答案。所以,我觉得想到什么了,就应该马上去做,这样才是一种有效选择。”

5c7f971f1bb27f156353d211502c98a7.png

cf65a551a5ac5d130a5d566e4299e46b.png

《新八仙传奇》魔幻现实三部曲之二 185cm×300cm

150b540918423ec2b153b253608ed3d0.png

“在油画领域,我是一个空白的人。我并没有过多的油画基础,也不懂太多的理论知识。我的创作几乎全部都是从刘溢老师那学习来的。所以,画画领域,我是一个很偏狭的人,只了解这一派的画法。”与很多学院派画家不同,马精虎总是可以很坦然地面对自己的任何短板,他甚至笑着说,“欣赏作品的话,我会更喜欢那些我不会的领域,比如抽象画,比如超写实主义。”不想贬低其他来彰显自己的习惯,不了解马精虎的人或许以为这是艺术家客套的涵养,而与他深度交流以后,就会明白,其实,这也是他的艺术主张。

172246c40d7749f48ce07617c6a734a0.jpeg

16cccedaf0752d22970c117843d46711.png

《围观》110cmx90cm 布面油彩 2014年

d46b3759f9833bf3e09ab1b02c6ac35a.png

《秋虫》魔幻现实三部曲之一 180cm×300cm

布面油彩 2011-2012年

“我的每一幅作品都不是很想表达观点。我只是在陈述一个事实,因为我觉得任何东西一旦明确之后,就有了“法西斯”的影子。

03a5120e6b48a4e77823688362669168.png

87e0c93a821ba821dd14d9bc7e37025e.png

2bdee7c895d0473867e11a76b6eec8fc.png

c91efd2e33ef41ef9b753e474a89901f.jpeg

c8e8ff3209a341b6ae6efa3ea66135dc.jpeg

520fc63b44263866b9d5db4bed097b6a.png

509b10b7ea084454ad9c4d79ed28a192.jpeg

b622a3e24b197670d01247aa293dd9af.png

9326e2e8acbdc7ea73a50f598b54ccbc.png

541319ab32142f2119b78ae9f01d262a.png

c738f93a5e151b7171635e77c34f6e6c.png

af26f63d1003de993ba04b77b1ccc05e.png

9599dc9c788bf88370458abc601c6436.png

ac7686e5776edd572b1589d55e3c40b8.png

8ca7dcd17f89c63f501a35761ffece4f.png

2fd56fa60c8ac4a57c4242b25c4aca76.png

f8918058b137f356b01325645e7292e0.png

02330d86bdc6c0fd69ea39ebeeb387ad.png

1ce1da614bdaebe738729b6498aafef5.png

5156555bfe3e20c87fc37c87063219b1.png

f3faf99ead4d2e18ca2530a0ec866019.png

87140f0af02e6b200492201a582cd2c9.png

9c8ac6cd71a039a1a99841794e9cd6eb.png

e2167aa41fdb2ee74d89aa4dcbc170fa.png

b777497afed5a5daa19bc60a2e796fd2.png

48036e064360e4cee394c5ae437c7d68.png

a13c57635d81319bda64d5c6aea4e488.png

1693a8cabf10ca458bcb4e1ce14ee867.png

c67813e98c7d054120d6ba9171967082.png

23bc319e9b7e7e8c39ef5b458893af87.png

720c34c6d6d3e29b75349fb9210c1868.png

f02ce08fda69e877f62327663ec662d1.png

b15b9f8c9a453a9b7038b3ae2c9c7afd.png

f88089565e5d597858ec85b73ae55d6c.png

da2d25e7d59c5d943a8c138db6d14f4b.png

5606789caa9e3e399635b523aeaa761b.png

dca6f8b268e72c750b2204844b545671.png

28f97597b04ffe41304f9d5349adf84d.png

bc6e6e55154d76ae401e5605493a2bbc.png

148a37ca4736dc9de9cda6dab2944e21.png

图文来自网络,版权归原作者所有返回搜狐,查看更多

责任编辑:

深度习是机器习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行习和模式识别。深度习模型能够习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医图像分析等应用至关重要。以下是深度习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值