链表学习 代码



#include<stdio.h>
#include<stdlib.h>
struct node{
      int data;
      struct node *next;
};
typedef struct node  list_t;
/*--------------------------
  * 遍历链表,
  * 参数  链表头
  * 注意:表头元素是否有意义
   --------------------------*/
void list_disp(list_t *head)
{
 
   list_t *p=head->next;
  // list_t *p=head;
   while(p!=NULL)
    {
       printf(" %d\n",p->data);
       p=p->next;
    }
}
/*---------------------------
 * 查找链表元素
 * 参数:链表头,查找元素
 * 函数返回值:int 返回查找标志 flag
 * 注意:先遍历 在过程查找
 * --------------------------*/
int list_find(list_t *head,int value)
{
  int flag=1;
  list_t  *p;
  p=head;
  while(p!=NULL)
    {
     if(p->data==value)
      {
        flag=0;
        printf("found : %d\n",p->data);
        break;  //跳出while循环,结束查找
      }
     p=p->next;
    }
  return flag;
}
/*---------------------------------
 *  删除链表中指定的value
 *  函数参数:表头,删除的值
 *  函数返回值:空
 *  注意:建立两个有顺序链表指针pre p.遍历查找删除的元素
 *  (依次移动pre,p).pre->next=p->next
 *  --------------------------------*/
void list_delete(list_t *head,int value)
{
    list_t *p;
    p=head;
    list_t *pre=head;
    while(p!=NULL)
    {
     if(p->data==value)
      {
        printf("delete %d\n",p->data);
        pre->next=p->next;
        break;
      }
     else
      {
        pre=p;
        p=p->next;
      }
    }
}
/*------------------------------------
 * 在链表中插入数据
 * 函数参数:表头,插入值,函数返回值类型:空
 * 注意:新建结点,初始化节点,
 *       开始或表尾,复制节点
 *       表中,有序插入
 * ---------------------------------*/
void list_insert(list_t*head,int value)
{  
    list_t *newnode=(list_t*)malloc(sizeof(list_t)),*p,*pre;
    newnode->data=value;
    newnode->next=NULL;
    p=head->next;
    pre=head;
    while(p!=NULL)
     { 
        if(p->data>newnode->data)
          {
           printf("insert : %d\n",newnode->data);
           newnode->next = p;
           pre->next=newnode;
           break;
          }
        else
          {
          pre=p;
          p=p->next;
         
          }
    
      }
    if(p==NULL)
    {
      pre->next=newnode;

    }
   
}
/*-------------------------------
 *从尾部查找第k个结点
 *函数返回值为 int 函数参数:表头,位置k
 *注意:新建链表指针*p,*q
 *          0~k-1     k-NULL
 *     p     0           1
 *     q     1           1
 *                步数
 * -----------------------------*/
int  search_k_form_tail(list_t *head,int k)
{
  list_t *p=head,*q=head;
  int i=0;
  while(p!=NULL)
  {
    if(i<k)
    {
     p= p->next;
     i++;
    }
  else
    {
     p=p->next;
     q=q->next;
    }
  }
   return q->data;
}
/*-------------------------
 *查找链表中间结点
 *函数参数 表头,函数返回值类型int
 *注意:遍历链表,计算总数
 *      通过次数控制移动
 * ------------------------*/
int  list_find_mid(list_t *head)
{  int i=0;
   list_t *p=head;
   while(p!=NULL)
   {
      i++;
      p=p->next;
   }
   p=head;
   for(i=i/2;i>0;i--)  
       {
          p=p->next;
       }
   return p->data;
  
}
/*
 新建节点,初始化节点,明确指向
 函数返回值类型 list_t *   堆中分配内存
list_t *list_insert_nohead(list_t *head,int value)
{
   list_t *n1=(list_t*)malloc(sizeof(list_t));
   list_t *n2=(list_t*)malloc(sizeof(list_t));
   n1->data=5;
   n2->data=1;
   head->next=n1;
   n1->next=NULL;
   n2->next=head;
   head=n2;
   return head;
}
*/
int main(int argc ,char *argv[])
{   
    int k_value,k_m_value;
    list_t * head = (list_t*)malloc(sizeof(list_t));
    head->next=NULL;
  
    list_insert(head,1);
    list_insert(head,2);
    list_insert(head,3);
    list_insert(head,4);
    list_insert(head,10);
    list_insert(head,6);
    list_insert(head,7);
    list_insert(head,8);
    list_insert(head,9);
    list_disp(head);
   
    k_m_value=list_find_mid(head);
    printf("k_m_value=%d\n",k_m_value);
    k_value=search_k_form_tail(head,4);
    printf("k_value=%d\n",k_value);
    list_delete(head,2);
    list_disp(head);
    list_find(head,5);
    list_insert(head,2);
    list_disp(head);
   /*有头
   list_t *head=(list_t *)malloc(sizeof(list_t));
   head->next=NULL;
   head->data=3;
   head=list_insert_nohead(head,0);
   list_disp(head);
  */
   return 0;
}



深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值