tensorflow做神经网络预测(用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱)

2024-08-18 05:35:29 3

tensorflow做神经网络预测(用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱)

大家好,tensorflow做神经网络预测相信很多的网友都不是很明白,包括用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱也是一样,不过没有关系,接下来就来为大家分享关于tensorflow做神经网络预测和用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱的一些知识点,大家可以关注收藏,免得下次来找不到哦,下面我们开始吧!

本文目录

用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱

0.00002和0.30相差1.5W倍,这肯定是不行的,太不稳定。看看是不是忘记对数据进行归一化?没归一化的话,会导致数量级大的输入的权值占主导地位,弱化其他输入向量维的作用。如果不是归一化的原因,看看是不是网络结构有问题,例如改变隐层节点数、改变输入向量结构,或者干脆换种神经网络。

求助:用神经网络做一个数据预测

下列代码为BP神经网络预测37-56周的销售量的代码:

% x为原始序列

load 销售量.mat

data=C

x=data’;

t=1:length(x);

lag=2; 

fn=length(t);

=BP(x,lag,fn);

%预测年份或某一时间段

t1=fn:fn+20;

n=length(t1);

t1=length(x)+1:length(x)+n;

%预测步数为fn

fn=length(t1);     

=BP(x,lag,fn);

P=vpa(f_out,5);

% 画出预测图

figure(6),plot(t,x,’b*-’),hold on

plot(t(end):t1(end),,’rp-’),grid on

xlabel(’周数’),ylabel(’销售量’);

str=;

title(str)

str1=;

str2=;

legend(str1,str2)

运行结果

我用神经网络做预测,可是每次运行的结果都不同,请问是什么原因

你说的神经网络应该值的是BP网络吧,由于BP网络有无穷多个局部最优解,所以每次计算的结果都不同,这和你初值设置的不同也有关系。一般来说通过多次试验找到一个合理的次优解作为问题的解。

怎样提高神经网络的预测精度

增加神经网络训练目标,以提高精度要求:trainparam.goal=0.01%0.01表示训练目标误差为0.01

神经网络浅谈

人工智能技术是当前炙手可热的话题,而基于神经网络的深度学习技术更是热点中的热点。去年谷歌的Alpha Go 以4:1大比分的优势战胜韩国的李世石九段,展现了深度学习的强大威力,后续强化版的Alpha Master和无师自通的Alpha Zero更是在表现上完全碾压前者。不论你怎么看,以深度学习为代表的人工智能技术正在塑造未来。下图为英伟达(NVIDIA)公司近年来的股价情况, 该公司的主要产品是“图形处理器”(GPU),而GPU被证明能大大加快神经网络的训练速度,是深度学习必不可少的计算组件。英伟达公司近年来股价的飞涨足以证明当前深度学习的井喷之势。好,话不多说,下面简要介绍神经网络的基本原理、发展脉络和优势。 神经网络是一种人类由于受到生物神经细胞结构启发而研究出的一种算法体系,是机器学习算法大类中的一种。首先让我们来看人脑神经元细胞:一个神经元通常具有多个树突 ,主要用来接受传入信息,而轴突只有一条,轴突尾端有许多轴突末梢,可以给其他多个神经元传递信息。轴突末梢跟其他神经元的树突产生连接,从而传递信号。 下图是一个经典的神经网络(Artificial Neural Network,ANN):乍一看跟传统互联网的拓扑图有点类似,这也是称其为网络的原因,不同的是节点之间通过有向线段连接,并且节点被分成三层。我们称图中的圆圈为神经元,左边三个神经元组成的一列为输入层,中间神经元列为隐藏层,右边神经元列为输出层,神经元之间的箭头为权重。 神经元是计算单元,相当于神经元细胞的细胞核,利用输入的数据进行计算,然后输出,一般由一个线性计算部分和一个非线性计算部分组成;输入层和输出层实现数据的输入输出,相当于细胞的树突和轴突末梢;隐藏层指既不是输入也不是输出的神经元层,一个神经网络可以有很多个隐藏层。 神经网络的关键不是圆圈代表的神经元,而是每条连接线对应的权重。每条连接线对应一个权重,也就是一个参数。权重具体的值需要通过神经网络的训练才能获得。我们实际生活中的学习体现在大脑中就是一系列神经网络回路的建立与强化,多次重复的学习能让回路变得更加粗壮,使得信号的传递速度加快,最后对外表现为“深刻”的记忆。人工神经网络的训练也借鉴于此,如果某种映射关系出现很多次,那么在训练过程中就相应调高其权重。 1943年,心理学家McCulloch和数学家Pitts参考了生物神经元的结构,发表了抽象的神经元模型MP:符号化后的模型如下:Sum函数计算各权重与输入乘积的线性组合,是神经元中的线性计算部分,而sgn是取符号函数,当输入大于0时,输出1,反之输出0,是神经元中的非线性部分。向量化后的公式为z=sgn(w^T a)(w^T=(w_1,w_2,w_3),a=〖(a_1,a_2,a_3)〗^T)。 但是,MP模型中,权重的值都是预先设置的,因此不能学习。该模型虽然简单,并且作用有限,但已经建立了神经网络大厦的地基 1958年,计算科学家Rosenblatt提出了由两层神经元组成(一个输入层,一个输出层)的神经网络。他给它起了一个名字–“感知器”(Perceptron)感知器是当时首个可以学习的人工神经网络。Rosenblatt现场演示了其学习识别简单图像的过程,在当时引起了轰动,掀起了第一波神经网络的研究热潮。 但感知器只能做简单的线性分类任务。1969年,人工智能领域的巨擘Minsky指出这点,并同时指出感知器对XOR(异或,即两个输入相同时输出0,不同时输出1)这样的简单逻辑都无法解决。所以,明斯基认为神经网络是没有价值的。 随后,神经网络的研究进入低谷,又称 AI Winter 。 Minsky说过单层神经网络无法解决异或问题,但是当增加一个计算层以后,两层神经网络不仅可以解决异或问题,而且具有非常好的非线性分类效果。 下图为两层神经网络(输入层一般不算在内):上图中,输出层的输入是上一层的输出。 向量化后的公式为:注意: 每个神经元节点默认都有偏置变量b,加上偏置变量后的计算公式为:同时,两层神经网络不再使用sgn函数作为激励函数,而采用平滑的sigmoid函数: σ(z)=1/(1+e^(-z) ) 其图像如下:理论证明: 两层及以上的神经网络可以无限逼近真实的对应函数,从而模拟数据之间的真实关系 ,这是神经网络强大预测能力的根本。但两层神经网络的计算量太大,当时的计算机的计算能力完全跟不上,直到1986年,Rumelhar和Hinton等人提出了反向传播(Backpropagation,BP)算法,解决了两层神经网络所需要的复杂计算量问题,带动了业界使用两层神经网络研究的热潮。 但好景不长,算法的改进仅使得神经网络风光了几年,然而计算能力不够,局部最优解,调参等一系列问题一直困扰研究人员。90年代中期,由Vapnik等人发明的SVM(Support Vector Machines,支持向量机)算法诞生,很快就在若干个方面体现出了对比神经网络的优势:无需调参;高效;全局最优解。 由于以上原因,SVM迅速打败了神经网络算法成为主流。神经网络的研究再一次进入低谷, AI Winter again 。 多层神经网络一般指两层或两层以上的神经网络(不包括输入层),更多情况下指两层以上的神经网络。 2006年,Hinton提出使用 预训练 ”(pre-training)和“微调”(fine-tuning)技术能优化神经网络训练,大幅度减少训练多层神经网络的时间 并且,他给多层神经网络相关的学习方法赋予了一个新名词–“ 深度学习 ”,以此为起点,“深度学习”纪元开始了:) “深度学习”一方面指神经网络的比较“深”,也就是层数较多;另一方面也可以指神经网络能学到很多深层次的东西。研究发现,在权重参数不变的情况下,增加神经网络的层数,能增强神经网络的表达能力。 但深度学习究竟有多强大呢?没人知道。2012年,Hinton与他的学生在ImageNet竞赛中,用多层的卷积神经网络成功地对包含一千类别的一百万张图片进行了训练,取得了分类错误率15%的好成绩,这个成绩比第二名高了近11个百分点,充分证明了多层神经网络识别效果的优越性。 同时,科研人员发现GPU的大规模并行矩阵运算模式完美地契合神经网络训练的需要,在同等情况下,GPU的速度要比CPU快50-200倍,这使得神经网络的训练时间大大减少,最终再一次掀起了神经网络研究的热潮,并且一直持续到现在。 2016年基于深度学习的Alpha Go在围棋比赛中以4:1的大比分优势战胜了李世石,深度学习的威力再一次震惊了世界。 神经网络的发展历史曲折荡漾,既有被捧上神坛的高潮,也有无人问津的低谷,中间经历了数次大起大落,我们姑且称之为“三起三落”吧,其背后则是算法的改进和计算能力的持续发展。 下图展示了神经网络自发明以来的发展情况及一些重大时间节点。当然,对于神经网络我们也要保持清醒的头脑。由上图,每次神经网络研究的兴盛期持续10年左右,从最近2012年算起,或许10年后的2022年,神经网络的发展将再次遇到瓶颈。 神经网络作为机器学习的一种,其模型训练的目的,就是使得参数尽可能的与真实的模型逼近。理论证明,两层及以上的神经网络可以无限逼近真实的映射函数。因此,给定足够的训练数据和训练时间,总能通过神经网络找到无限逼近真实关系的模型。 具体做法:首先给所有权重参数赋上随机值,然后使用这些随机生成的参数值,来预测训练数据中的样本。假设样本的预测目标为yp ,真实目标为y,定义值loss,计算公式如下: loss = (yp -y) ^2 这个值称之为 损失 (loss),我们的目标就是使对所有训练数据的损失和尽可能的小,这就转化为求loss函数极值的问题。 一个常用方法是高等数学中的求导,但由于参数不止一个,求导后计算导数等于0的运算量很大,所以常用梯度下降算法来解决这样的优化问题。梯度是一个向量,由函数的各自变量的偏导数组成。 比如对二元函数 f =(x,y),则梯度∇f=(∂f/∂x,∂f/∂y)。梯度的方向是函数值上升最快的方向。梯度下降算法每次计算参数在当前的梯度,然后让参数向着梯度的反方向前进一段距离,不断重复,直到梯度接近零时截止。一般这个时候,所有的参数恰好达到使损失函数达到一个最低值的状态。下图为梯度下降的大致运行过程:在神经网络模型中,由于结构复杂,每次计算梯度的代价很大。因此还需要使用 反向传播 (Back Propagation)算法。反向传播算法利用了神经网络的结构进行计算,不一次计算所有参数的梯度,而是从后往前。首先计算输出层的梯度,然后是第二个参数矩阵的梯度,接着是中间层的梯度,再然后是第一个参数矩阵的梯度,最后是输入层的梯度。计算结束以后,所要的两个参数矩阵的梯度就都有了。当然,梯度下降只是其中一个优化算法,其他的还有牛顿法、RMSprop等。 确定loss函数的最小值后,我们就确定了整个神经网络的权重,完成神经网络的训练。 在神经网络中一样的参数数量,可以用更深的层次去表达。由上图,不算上偏置参数的话,共有三层神经元,33个权重参数。由下图,保持权重参数不变,但增加了两层神经元。 在多层神经网络中,每一层的输入是前一层的输出,相当于在前一层的基础上学习,更深层次的神经网络意味着更深入的表示特征,以及更强的函数模拟能力。更深入的表示特征可以这样理解,随着网络的层数增加,每一层对于前一层次的抽象表示更深入。如上图,第一个隐藏层学习到“边缘”的特征,第二个隐藏层学习到“边缘”组成的“形状”的特征,第三个隐藏层学习到由“形状”组成的“图案”的特征,最后的隐藏层学习到由“图案”组成的“目标”的特征。通过抽取更抽象的特征来对事物进行区分,从而获得更好的区分与分类能力。 前面提到, 明斯基认为Rosenblatt提出的感知器模型不能处理最简单的“异或”(XOR)非线性问题,所以神经网络的研究没有前途,但当增加一层神经元后,异或问题得到了很好地解决,原因何在?原来从输入层到隐藏层,数据发生了空间变换,坐标系发生了改变,因为矩阵运算本质上就是一种空间变换。 如下图,红色和蓝色的分界线是最终的分类结果,可以看到,该分界线是一条非常平滑的曲线。但是,改变坐标系后,分界线却表现为直线,如下图:同时,非线性激励函数的引入使得神经网络对非线性问题的表达能力大大加强。 对于传统的朴素贝叶斯、决策树、支持向量机SVM等分类器,提取特征是一个非常重要的前置工作。在正式训练之前,需要花费大量的时间在数据的清洗上,这样分类器才能清楚地知道数据的维度,要不然基于概率和空间距离的线性分类器是没办法进行工作的。然而在神经网络中,由于巨量的线性分类器的堆叠(并行和串行)以及卷积神经网络的使用,它对噪声的忍耐能力、对多通道数据上投射出来的不同特征偏向的敏感程度会自动重视或忽略,这样我们在处理的时候,就不需要使用太多的技巧用于数据的清洗了。有趣的是,业内大佬常感叹,“你可能知道SVM等机器学习的所有细节,但是效果并不好,而神经网络更像是一个黑盒,很难知道它究竟在做什么,但工作效果却很好”。 人类对机器学习的环节干预越少,就意味着距离人工智能的方向越近。神经网络的这个特性非常有吸引力。 1) 谷歌的TensorFlow开发了一个非常有意思的神经网络 入门教程 ,用户可以非常方便地在网页上更改神经网络的参数,并且能看到实时的学习效率和结果,非常适合初学者掌握神经网络的基本概念及神经网络的原理。网页截图如下:2) 深度学习领域大佬吴恩达不久前发布的《 神经网络和深度学习 》MOOC,现在可以在网易云课堂上免费观看了,并且还有中文字幕。 3) 《神经网络于深度学习》(Michael Nielsen著)、《白话深度学习与TensorFlow》也是不错的入门书籍。

将训练好的神经网络保存下来在另一个文件中载入后进行预测

tensorflow_tutorial.py文件---训练神经网络 tf_utils.py----辅助训练神经网络的文件 predict.py---载入模型进行预测

如何人工神经网络来预测下一个数值

newff函数建立BP神经网络,历史数据作为样本,例如前n个数据作为输入,输入节点为n。当前数据作为p,输出节点为1。隐层节点根据试凑法得到。通过matlab的train函数,得到训练好的BP神经网络。再将当前预测点的前n个数据作为输入,输出即为当前的预测值。

神经网络模型预测用哪个函数

径向基函数。根据查查询搜狐网信息,实现神经网络预测模型,使用径向基函数分类电信客户。神经网络模型是人工智能最基础的模型,它的创新是受益于神经科学家对大脑神经元的研究。

如何利用训练好的神经网络进行预测

可以用MATLAB神经网络工具箱,先提取样本,用mapminmax函数归一化,再newff函数建立网络,设置好训练参数后,使用train

神经网络在预测阶段的硬件要求

在预测阶段,神经网络的硬件要求取决于模型的大小和数据的大小。对于较大的模型和较大的数据集,需要更强大的硬件,包括CPU或GPU。一般来说,使用更高频率的CPU或更多的GPU内存和处理单元可以加快模型的训练和预测速度。

关于本次tensorflow做神经网络预测和用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱的问题分享到这里就结束了,如果解决了您的问题,我们非常高兴。

tensorflow做神经网络预测(用神经网络时间序列做预测,预测结果整体还好基本误差都非常小,但是偶尔的几个预测值的误差大的也离谱)

本文编辑:admin

本文相关文章:


tensorflow做神经网络预测(将训练好的神经网络保存下来在另一个文件中载入后进行预测)

tensorflow做神经网络预测(将训练好的神经网络保存下来在另一个文件中载入后进行预测)

各位老铁们,大家好,今天由我来为大家分享tensorflow做神经网络预测,以及将训练好的神经网络保存下来在另一个文件中载入后进行预测的相关问题知识,希望对大家有所帮助。如果可以帮助到大家,还望关注收藏下本站,您的支持是我们最大的动力,谢谢

2024年9月8日 19:10

tensorflow做神经网络预测(神经网络模型预测用哪个函数)

tensorflow做神经网络预测(神经网络模型预测用哪个函数)

本篇文章给大家谈谈tensorflow做神经网络预测,以及神经网络模型预测用哪个函数对应的知识点,文章可能有点长,但是希望大家可以阅读完,增长自己的知识,最重要的是希望对各位有所帮助,可以解决了您的问题,不要忘了收藏本站喔。本文目录神经网络

2024年7月10日 21:42

更多文章:


mysql修改视图(mysql 如何对视图的名称重命名)

mysql修改视图(mysql 如何对视图的名称重命名)

大家好,如果您还对mysql修改视图不太了解,没有关系,今天就由本站为大家分享mysql修改视图的知识,包括mysql 如何对视图的名称重命名的问题都会给大家分析到,还望可以解决大家的问题,下面我们就开始吧!本文目录mysql 如何对视图的

2024年6月29日 16:40

flash游戏网站源码(高手进来,怎样下在网页中的FLASH源代码)

flash游戏网站源码(高手进来,怎样下在网页中的FLASH源代码)

本篇文章给大家谈谈flash游戏网站源码,以及高手进来,怎样下在网页中的FLASH源代码对应的知识点,文章可能有点长,但是希望大家可以阅读完,增长自己的知识,最重要的是希望对各位有所帮助,可以解决了您的问题,不要忘了收藏本站喔。本文目录高手

2024年7月17日 19:55

taste用法?taste怎么读 英语

taste用法?taste怎么读 英语

本文目录taste用法taste怎么读 英语taste英文taste可数吗taste啥意思taste是什么意思 解析taste的含义和用法taste什么意思taste的用法合集taste意思eat和taste的区别taste用法taste既

2024年6月18日 17:43

administrators权限怎么获得(win7 hosts需要Administrators权限 win7 hosts如何获取Administrators权限)

administrators权限怎么获得(win7 hosts需要Administrators权限 win7 hosts如何获取Administrators权限)

本文目录win7 hosts需要Administrators权限 win7 hosts如何获取Administrators权限怎么获得Administrators的权限administrators权限怎么获得华硕win10系统的怎么获得Ad

2024年2月6日 09:20

香港云服务器(香港有云服务器么是真正的云服务器 不是vps哦)

香港云服务器(香港有云服务器么是真正的云服务器 不是vps哦)

本文目录香港有云服务器么是真正的云服务器 不是vps哦为什么有的人更偏向香港云服务器香港服务器和内地服务器有什么区别有没有稳定一点的香港云服务器推荐价格不要太贵了就行选择香港云主机需要注意哪些问题做网站选择香港服务器和国内服务器有哪些利弊求

2024年7月19日 19:54

java自学教学入门(初学者学Java要掌握哪些知识)

java自学教学入门(初学者学Java要掌握哪些知识)

本文目录初学者学Java要掌握哪些知识Java入门怎么学初学者学Java要掌握哪些知识当下选择学编程语言的时候,大家的首选就是Java语言,因为Java语言在编程语言中的主角光环,真的是太大了。在学Java中,大部分的朋友都是零基础,零基础

2024年7月19日 05:21

苹果短信烟花特效(iphone发短信放烟花只能看一次嘛)

苹果短信烟花特效(iphone发短信放烟花只能看一次嘛)

这篇文章给大家聊聊关于苹果短信烟花特效,以及iphone发短信放烟花只能看一次嘛对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。本文目录iphone发短信放烟花只能看一次嘛苹果通过火焰效果发送的短信怎么查看苹果发信息烟花特效对方看得到

2024年7月17日 07:35

中国美食网站模板(有什么介绍全国各地美食的网站给我说说)

中国美食网站模板(有什么介绍全国各地美食的网站给我说说)

本文目录有什么介绍全国各地美食的网站给我说说推荐几个美食论坛或者网站全国性热点美食论坛有哪些全国性热点美食网站有哪些有什么介绍全国各地美食的网站给我说说太原:过油肉 太原的餐馆被粤、川、京、鲁菜占据了,本地菜系叫得上名字似乎还就是些面点小吃

2024年7月14日 11:04

软件后端开发好就业吗(后端和前端哪个就业好)

软件后端开发好就业吗(后端和前端哪个就业好)

大家好,如果您还对软件后端开发好就业吗不太了解,没有关系,今天就由本站为大家分享软件后端开发好就业吗的知识,包括后端和前端哪个就业好的问题都会给大家分析到,还望可以解决大家的问题,下面我们就开始吧!本文目录后端和前端哪个就业好软件方面好就业

2024年8月24日 15:00

数组先定义在初始化(数组变量一般应该先定义后使用,当定义数组变量后,该数组各元素的初值是什么)

数组先定义在初始化(数组变量一般应该先定义后使用,当定义数组变量后,该数组各元素的初值是什么)

本文目录数组变量一般应该先定义后使用,当定义数组变量后,该数组各元素的初值是什么二维数组不能先定义,然后初始化么c语言中数组能不能先定义,然后直接赋给初值数组变量一般应该先定义后使用,当定义数组变量后,该数组各元素的初值是什么该数组各元素的

2024年7月2日 21:01

sql的标准语句有哪些(常用标准SQL语句..)

sql的标准语句有哪些(常用标准SQL语句..)

各位老铁们好,相信很多人对sql的标准语句有哪些都不是特别的了解,因此呢,今天就来为大家分享下关于sql的标准语句有哪些以及常用标准SQL语句..的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!本文目录常用标准SQL语句

2024年9月8日 23:00

浮点运算对什么有影响(CPU浮点运算与整点运算分别决定其什么方面性能)

浮点运算对什么有影响(CPU浮点运算与整点运算分别决定其什么方面性能)

各位老铁们好,相信很多人对浮点运算对什么有影响都不是特别的了解,因此呢,今天就来为大家分享下关于浮点运算对什么有影响以及CPU浮点运算与整点运算分别决定其什么方面性能的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!本文目

2024年10月8日 14:10

margin(margin金融术语是什么意思)

margin(margin金融术语是什么意思)

本文目录margin金融术语是什么意思经济学中的边际margin是什么概念什么是Marginmargin call是什么意思CSS属性margin是什么意思css中margin和padding的区别margin金融术语是什么意思边际(mar

2024年5月7日 17:51

0基础学平面设计要多久(现在学平面设计最快多久能够学会)

0基础学平面设计要多久(现在学平面设计最快多久能够学会)

本文目录现在学平面设计最快多久能够学会零基础真的不能学平面设计吗是不是很难现在学平面设计最快多久能够学会关于这个问题本喵觉自己挺有资格说一下的,毕竟本喵是半路出家的平面设计!现在转为做游戏也全部依赖于自己曾经做平面设计的底子,因为游戏人物的

2024年5月7日 21:35

儿童摄影网页制作代码(大连艾可儿儿童摄影有限公司怎么样)

儿童摄影网页制作代码(大连艾可儿儿童摄影有限公司怎么样)

本文目录大连艾可儿儿童摄影有限公司怎么样北京花开了儿童摄影中心怎么样长沙市小叮当儿童摄影有限公司怎么样西安市碑林区芳妮豆丁儿童摄影店怎么样长沙市小象集儿童摄影有限公司怎么样葫芦岛市连山区贵族宝贝儿童摄影工作室怎么样北京网站优化哪家好,手上有

2024年7月6日 04:33

手机网页开发者工具(哪个手机浏览器有开发者工具)

手机网页开发者工具(哪个手机浏览器有开发者工具)

“手机网页开发者工具”相关信息最新大全有哪些,这是大家都非常关心的,接下来就一起看看手机网页开发者工具(哪个手机浏览器有开发者工具)!本文目录哪个手机浏览器有开发者工具如何开发手机端网页开发调试工具手机端的页面怎么开发,和webhtml有区

2024年8月23日 04:40

计算机应用基础教程答案(计算机应用基础课后习题答案(人民邮电出版社 杨起帆 颜晖编))

计算机应用基础教程答案(计算机应用基础课后习题答案(人民邮电出版社 杨起帆 颜晖编))

本文目录计算机应用基础课后习题答案(人民邮电出版社 杨起帆 颜晖编)计算机应用基础教程2011版华东师范大学出版社的答案计算机应用基础教程课后答案段晓婧《计算机应用基础教程》课后答案 清华大学出版社清华大学出版社 《计算机应用基础教程》课后

2024年7月8日 06:18

铃铛边框素材图片(饥荒铃铛怎么做)

铃铛边框素材图片(饥荒铃铛怎么做)

大家好,如果您还对铃铛边框素材图片不太了解,没有关系,今天就由本站为大家分享铃铛边框素材图片的知识,包括饥荒铃铛怎么做的问题都会给大家分析到,还望可以解决大家的问题,下面我们就开始吧!本文目录饥荒铃铛怎么做PS制作精致圣诞小铃铛怎么用PS制

2024年7月27日 22:25

计算机基础知识教学视频(计算机基础知识的讲座视频哪里有)

计算机基础知识教学视频(计算机基础知识的讲座视频哪里有)

“计算机基础知识教学视频”相关信息最新大全有哪些,这是大家都非常关心的,接下来就一起看看计算机基础知识教学视频(计算机基础知识的讲座视频哪里有)!本文目录计算机基础知识的讲座视频哪里有MS Office 高级应用计算机基础知识 (2)文字处

2024年9月2日 21:25

codeblocks下面的框不见了怎么办(codeblocks不出现黑框)

codeblocks下面的框不见了怎么办(codeblocks不出现黑框)

本文目录codeblocks不出现黑框codeblocks编译框不见了codeblocks下面的框怎么固定codeblock左边框的路径怎么打开codeblocks不出现黑框按F2恢复。不出现黑框是因电脑系统黑屏,把logs窗口不慎拖到其他

2024年7月23日 13:18

近期文章

本站热文

iphone vpn设置(ios设置vpn快捷开关)
2024-07-22 15:01:12 浏览:2342
windows12正式版下载(操作系统Windows Server 2012 R2,在哪能下载到,公司用的)
2024-07-20 17:26:53 浏览:1736
client mfc application未响应(每次进cf就提示client MFC Application未响应该怎么办啊!急急急)
2024-07-20 11:15:58 浏览:1168
java安装教程(win10如何安装JAVA)
2024-07-19 19:55:49 浏览:1164
标签列表

热门搜索