Translate nuc lv

import os
#os.environ["CUDA_VISIBLE_DEVICES"] = "0"
import tensorflow as tf

run_config = tf.ConfigProto()
run_config.gpu_option_allow_growth=True
#run_config.gpu_options.per_process_gpu_memory_fraction = 0.8 # 占用GPU90%的显存
sess = tf.Session(config=run_config)

def datastream():
    return None

def listcnn_core(x_image):
    x_shape = tf.shape(x_image).as_list()
    x = tf.reshape(x_image,[x_shape[0]*2, x_shape[1]/2, x_shape[2],x_shape[3]])
    weight = tf.Variable(tf.truncated_normal([5,5,3,32],stddev = 0.1))
    bias = tf.Variable(tf.constant(0.1,shape=[32])) #偏置
    h_conv = tf.nn.conv2d(cur_layer,weight,strides=[1,1,1,1],padding = "SAME")
    h_relu = tf.nn.relu(h_conv + bias)
    s = 2
    h_pool = tf.nn.max_pool(h_relu,ksize=[1,s,s,1],strides=[1,s,s,1],padding="SAME")
    h_tanh = tf.tanh(h_pool)
    cur_layer = h_tanh
    weight = tf.Variable(tf.truncated_normal([3,3,32,32],stddev = 0.1))
    bias = tf.Variable(tf.constant(0.1,shape=[32])) #偏置
    h_conv = tf.nn.conv2d(cur_layer,weight,strides=[1,1,1,1],padding = "SAME")
    h_relu = tf.nn.relu(h_conv + bias)
    h_pool = h_relu
    #h_pool = tf.nn.max_pool(h_relu,ksize=[1,s,s,1],strides=[1,s,s,1],padding="SAME")
    h_tanh = tf.tanh(h_pool)
    cur_layer = h_tanh
    weight = tf.Variable(tf.truncated_normal([3,3,32,64],stddev = 0.1))
    bias = tf.Variable(tf.constant(0.1,shape=[64])) #偏置
    h_conv = tf.nn.conv2d(cur_layer,weight,strides=[1,1,1,1],padding = "SAME")
    h_relu = tf.nn.relu(h_conv + bias)
    h_pool = tf.nn.max_pool(h_relu,ksize=[1,s,s,1],strides=[1,s,s,1],padding="SAME")
    h_tanh = tf.tanh(h_pool)
    cur_layer = h_tanh
    cur_shape = cur_layer.get_shape()
    keep_prob = 1.0
    #keep_prob = keep_prob_placeholder
    #1、当矩阵A的列数(column)等于矩阵B的行数(row)时,A与B可以相乘。
    #2、矩阵C的行数等于矩阵A的行数,C的列数等于B的列数。
    #3、乘积C的第m行第n列的元素等于矩阵A的第m行的元素与矩阵B的第n列对应元素乘积之和。
    #tf.matmul(x,w), 多次矩阵乘法可以模拟全连接的效果
    cur_layer = tf.nn.dropout(cur_layer,keep_prob)
    w_fc1 = tf.Variable(tf.truncated_normal([cur_shape[0]*cur_shape[1]*cur_shape[2],256],stddev = 0.1))
    b_fc1 = tf.Variable(tf.constant(0.1,[256]))
    h_flat1 = tf.reshape(cur_layer,[-1,w_fc1.shape[0]])
    #h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,w_fc1)+b_fc1)
    h_fc1 = tf.nn.relu(tf.nn.xw_plus_b(h_flat1,w_fc1,b_fc1))
    
    h_fc1_reshape = tf.reshape(h_fc1, [-1,h_fc1.shpe[1]*2])
    h_fc1_drop = tf.nn.dropout(h_fc1_reshape,keep_prob)
    w_fc2 = tf.Variable(tf.truncated_normal([256*2,2],stddev = 0.1))
    b_fc2 = tf.Variable(tf.constant(0.1,[2]))
    y_softmax = tf.nn.softmax(tf.nn.xw_plus_b(h_fc1_drop,w_fc2,b_fc2),name = "generator/output")
    
    y = y_softmax
    return y

def listcnn_inference(x,x_shape=[32,24,3]):
    phase_train_placeholder = tf.placeholder(tf.bool,name = "phace_train")
    keep_prob_placeholder = tf.placeholder(tf.float32,name = "heep_prob")
    x_ = tf.placeholder("float32",shape=[None, x_shape[0]*x_shape[1]*x_shape[2]],name = "generator/input")
    x_image = tf.reshape(x_,[-1,x_shape[0],x_shape[1],x_shape[2]])
    y = listcnn_core(x_image)
    return y
def listcnn_loss(y_,y):
    cross_entropy = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y , 1e-7 , 1.0)))
    return cross_entropy

def listcnn_train():
    y = listcnn_inference([32,24,3])
    y_ = tf.placeholder("float",shape=[None,2])
    train_step = tf.train.AdamOptimizer(1e-6).minimize(listcnn_loss(y_,y))
    accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.argmax(y , 1),tf.argmax(y_ , 1)),'float'))

    sess.run(tf.initialize_all_variables())
    saver = tf.train.Saver()
    saver.restore('model/model.ckpt')
    num = 0
    while True :
        batch = [[],[]]
        images = batch[0]
        labels = batch[1]
        train_step.run(session=sess,feed_dict = {phase_train_placeholder:True,x_:images,y_:labels})
        accl = 0.5
        text_list = sess.run(y,feed_dict={phase_train_placeholder:True,x_:images})
        train_accurary = accuracy.eval(session=sess,feed_dict = {phase_train_placeholder:True,x_:images,y_:labels})
        num += 1
        if train_accurary > accl * 1.2 :
            accl = train_accurary
            save_path = saver.save(sess,os.path.join('model',"model.ckpt"))
            print(save_path)
            os.system("tar -cf " + "model/model-" + str(accl) + "_" + str(num) + ".tar  " + save_path +"*")
        if accl > 0.9999 :
            break

int hkidchenlimingHK()
{
cv::Mat img = cv::imread(“chenliming2s.png”);
cv::Rect hkrect(36-22, 310-22, 48+44, 52+44);
deg_imout(“img”, img);
cv::Mat mat(img, hkrect);
deg_imout(“hk”, mat);
cv::cvtColor(mat, mat, CV_BGR2GRAY);
deg_imout(“gray”, mat);
cv::Mat m = cv::Mat(55 + 232, 55 + 232, CV_8UC1, cv::Scalar(255));
cv::Mat n = m.clone();
cv::Mat v(55 + 46, 55 + 46, CV_64FC1, cv::Scalar(255));
cv::Mat mask = cv::Mat(9, 9, CV_8UC1,cv::Scalar(255));
uchar mask1[] = { 0,0,0,0,0,255,0,255,255 };
uchar mask2[] = { 0,255,255,0,0,255,0,0,0 };
mat.copyTo(cv::Mat(m, cv::Rect(23-22, 23-22, 48+44, 52+44)));
deg_imout(“m”, m);
double val = 255;
std::vector idxs;
cv::Mat vd = m.clone();
for (int i = 13; i < m.cols - 25 ; i++)
{
for (int j = 13; j < m.rows - 25; j++)
{
double mean = cv::mean(cv::Mat(m, cv::Rect(i-12, j-12, 24, 25)))[0];
n.at(j, i) = (int)mean;
v.at(j, i) = mean;
if (mean < val)
{
idxs.clear();
val = mean;
idxs.push_back(i);
idxs.push_back(j);
}
else if (mean == val)
{
idxs.push_back(i);
idxs.push_back(j);
}
vd.at(j, i) = m.at(j, i) > mean ? 255 : 0;
}
}
for (int i = 0; i < m.cols - 25; i++)
{
for (int j = 0; j < m.rows - 25; j++)
{
double mean = cv::mean(cv::Mat(vd, cv::Rect(i , j , 24, 24)))[0];
n.at(j, i) = (int)mean;
v.at(j, i) = mean;
if (mean < val)
{
idxs.clear();
val = mean;
idxs.push_back(i);
idxs.push_back(j);
}
else if (mean == val)
{
idxs.push_back(i);
idxs.push_back(j);
}
}
}
deg_imout(“n”, 255-n);
int minIdx2, maxIdx2;
double minVal, maxVal;
cv::minMaxIdx(v, &minVal, &maxVal, minIdx, maxIdx);
printf("%e,%e,\t[%d,%d],[%d,%d]\n", minVal, maxVal, minIdx[0], minIdx1, maxIdx[0], maxIdx1);
for (int i = 0; i < idxs.size(); i += 2)
{
printf("[ %d\t%d ]\n", idxs[i], idxs[i + 1]);
}
cv::imwrite(“m.png”, m);
cv::Mat cut = cv::Mat(m, cv::Rect(minIdx1, minIdx[0], 24, 24));
deg_imout(“cut”, cut);
cv::threshold(cut, cut, cv::mean(cut)[0], 255, CV_THRESH_OTSU);
deg_imout(“cut2”, cv::Mat(vd, cv::Rect(minIdx1, minIdx[0], 24, 24)));
cv::cvtColor(img, img, CV_BGR2GRAY);
cv::threshold(cv::Mat(img,cv::Rect(7,205,206,206)), m, cv::mean(mat)[0], 255, CV_THRESH_OTSU);
cv::medianBlur(img, m, 5);
//cv::Scharr(img, m, 8, 1, 1);
deg_imout(“threahold”, m);
deg_imout(“laplas”, unsharperui(img));
cv::GaussianBlur(img, m, cv::Size(3, 3), 5);
cv::blur(img, m, cv::Size(9, 9), cv::Point(4, 4));
m = img - m;
m.convertTo(m, CV_8UC1);
deg_imout(“gau”, m);
deg_imout(“gaud”, vd);
cv::waitKey();
return 0;
}

你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。

新的改变

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目Value
电脑$1600
手机$12
导管$1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列第二列第三列
第一列文本居中第二列文本居右第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPEASCIIHTML
Single backticks'Isn't this fun?'‘Isn’t this fun?’
Quotes"Isn't this fun?"“Isn’t this fun?”
Dashes-- is en-dash, --- is em-dash– is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to- HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN 是通过欧拉积分

Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t   . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=0tz1etdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06 Mon 13 Mon 20 已完成 进行中 计划一 计划二 现有任务 Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::

张三 李四 王五 你好!李四, 最近怎么样? 你最近怎么样,王五? 我很好,谢谢! 我很好,谢谢! 李四想了很长时间, 文字太长了 不适合放在一行. 打量着王五... 很好... 王五, 你怎么样? 张三 李四 王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0 开始 我的操作 确认? 结束 yes no
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值