小白求问,现在最强神医叶小白在线看的单卡是titanx吗

小白求问,1080ti好还是titan好?我直播游戏用。【显卡吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:3,191,369贴子:
小白求问,1080ti好还是titan好?我直播游戏用。收藏
显卡,企业采购办公用品,满千减百,最高返1500元苏宁卡,一站购精品!显卡,正品低价,品质保障,一站式本地化采购服务平台,为企业提供多样化采购方案!
o11g 艹起 6600r
看着钱包上 ttx自带订阅加成
往贵的买准没错。
当然titan X
二者无明显差异,看喜好
从经济来说1080ti好
要是不差钱就 ttxp
娱乐大师跑分1080ti公版都普遍比泰坦xp高2w
NVIDIA TITAN Xp好
登录百度帐号前AMD大牛操刀 Intel重回独显:两款新品曝光
前AMD大牛操刀 Intel重回独显:两款新品曝光
来源: &责任编辑:小易 &
我的电脑cpu前两天还是amd速龙iix4559,为什么突然...答:这两个本来就一个东西,只是双核B59开核后变成四核559,估计你不小心恢复bios之类操作给还原了,想变回四核自己去百度一键开核教程菜鸟求解,amd显卡安装驱动之前要安装一个软件叫什...答:驱动精灵之类的么,那个装不装都行你到官网下载一个驱动,双击安装一下就行http://support.amd.com/zh-cn/download/注意,如果是双显卡切换的笔记本,需要到笔记本厂家网站下载显卡驱动。目前AMD公司的主流CPU是什么答:锐龙
前AMD大牛操刀Intel重回独显:两款新品曝光
前AMD大牛操刀Intel重回独显:两款新品曝光
前AMD大牛操刀Intel重回独显:两款新品曝光
前AMD大牛操刀Intel重回独显:两款新品曝光
前AMD大牛操刀Intel重回独显:两款新品曝光
前AMD大牛操刀Intel重回独显:两款新品曝光
电脑小白前来求问,为什么都说AMD的CPU渣答:amd虽然我没用过但也听说过不少。其实amd也没有那么的不堪,现在amd的技术水品相比以前还是有着长足的进步手头紧的话买amd也没什么太大问题。amd不防抓取,学路网提供内容。上周一(1月8日),Intel正式发布了8代酷睿处理器家族新成员,后缀为G的Kaby Lake Refresh芯片。
电脑amd显卡品牌排名前十有哪些答:前十的太多,前五的才更有意义。反正偶只知道在A卡市场中,市场占有率第一的品牌是蓝宝石(相应的,N卡中,市场占有率第一的是影驰,没想到吧?第二名是七彩虹),其次像迪兰防抓取,学路网提供内容。
这五款产品覆盖Core i7和i5,最大的特点就是采用MCM多芯片封装,集成了AMD Vega M定制GPU和HBM2显存。
目前AMD性能最好的显卡是哪一款?答:AMDRadeonProDuo,简称ProDuo,上一代的显卡卡皇,显卡中的皇帝。目前被英伟达这一代的新TITANX所取代。AMD的织女星的显卡卡皇还要等到201防抓取,学路网提供内容。由此,最高端的i7-8809G的图形性能一举超越了GTX 1060 Max-Q,将成为新一代游戏本的一种集成度更高的芯片解决方案。
换AMD的显卡了,以前用NVIDIA卡时安装的东西可以卸...答:不是可以不可以卸载的问题,是必须要卸载,ATI的显卡和N卡的驱动什么的是不通用的,你需要更换为A卡的催化剂驱动才可以正常使用新显卡,如防抓取,学路网提供内容。不过有趣的是,即便有如此之强的Vega辅助,Intel没有砍掉HD620核显,而是强调在低负载和超过6屏的输出任务时,核显依然可以体现出作用。
Amd80w以内最好的cpu答:目前新款处理器中,TDP80W以内的最强的型号是R72700这款处理器。R72700具有8核心16线程,16M的三级缓存,基础频率3.2GHz,加速频率4.1GHz,T防抓取,学路网提供内容。
据TPU报道,The Motley Fool的一位科技股评论人员Ashraf Eassa透露称,Intel内部已经开始秘密研发第12代和13代独显,前者代号 “Arctic Sound”,后者代号“Jupiter Sound”。
目前中国市面上INTEL和AMD处理器的产地是在哪里?答:主要部份都是美国产的。不过有东南亚和中国封装的。国内几乎买不到美国封装的。因为美国人工太贵,而且封装芯片没有什么技术含量。在处理器的上有产地信息的。防抓取,学路网提供内容。其中 “Arctic Sound”将采用和Intel/AMD合体CPU一样的嵌入式多芯片互连桥接 (EMIB) 技术。由此来看,Intel的新独显应该也是HBM显存,而且性能比较强悍,以至于无法封装到CPU中。
Fanuc0i-MD与Fanuc18i-MB之分别OI-MD与18I-MB都FANUC0I系列18I-MB系统已经停产应于现31I系统防抓取,学路网提供内容。目前,8代酷睿的UHD核显仅仅是9代半(Gen 9.5),从这个节奏来看,消费者要等很久了。
dellmd3220i支持ssd吗和固态硬盘MD3220i-最多二十四(24)个2.5英寸SAS、近线SAS和固态硬盘3.5英寸硬盘的性能和容量15,000RPMSAS驱动器,容量规格为300GB、4防抓取,学路网提供内容。去年末,Intel招揽了AMD RTG负责人、Navi架构之父Raja Koduri跳槽,当时对外的说辞就是,Raja帮助Intel重新进军独显领域。
宝马320I7200MD什么意思?宝马轿车系列|BMW7200MD(BMW320I)型宝马牌轿车产品简介:国家免检产品宝马(BMW)牌BMW7200MD(BMW320I)型轿车由华晨宝马汽车有限公司依防抓取,学路网提供内容。返回学网,查看更多
我是用到date(Y-m-dH:i:s)函数的时候,错误提示如下:这只是一个警告(Warning),虽然可以忽略,但可能会发生执行结果错误。你写的date(Y-m-dH:i:s)参数有问题,正确的写法防抓取,学路网提供内容。
本文由提供苹果MD311本I7寸,8G内存、双系统,图形设计用。想升级到16G...普通硬盘更换成固态硬盘速度会快很多,待机时间肯定要少些,费用大概需要千把块钱吧防抓取,学路网提供内容。之前cpu是amd速龙x4740想换cpu是必须换amd的吗答:X4740是AMD的CPU,Intel和AMD的处理器针脚接口是不一样的,完全不能兼容,升级CPU之前要考虑接口类型和主板供电情况,然后还有BIOS支持性。电脑小白前来求问,为什么都说AMD的CPU渣答:amd虽然我没用过但也听说过不少。其实amd也没有那么的不堪,现在amd的技术水品相比以前还是有着长足的进步手头紧的话买amd也没什么太大问题。amd不就是功耗高一点,稳定性差一点,更容易发热一点,其实也没太大的毛玻电脑amd显卡品牌排名前十有哪些答:前十的太多,前五的才更有意义。反正偶只知道在A卡市场中,市场占有率第一的品牌是蓝宝石(相应的,N卡中,市场占有率第一的是影驰,没想到吧?第二名是七彩虹),其次像迪兰恒进、华硕、微星、希仕、镭风这些好像市场占有率都差不多。
本文相关:
- Copyright & 2018 www.xue63.com All Rights Reserved为什么需要GPU
几年前我启动并主导了一个项目,当时还在谷歌,这个项目叫谷歌大脑。该项目利用谷歌的计算基础设施来构建神经网络。
规模大概比之前的神经网络扩大了一百倍,我们的方法是用约一千台电脑。这确实使深度学习取得了相当大的进展。用到相当多的
计算机。不久之后我发现,之前我并没意识到,用一千台电脑是一项非常昂贵的技术。因此,我和我的朋友,意识到,利用一种
不同的技术,仅用三台电脑,而非一千台,就可以做到这点,而秘诀就是利用GPU技术。&
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& ---Andrew Ng
GPGPU是最近几年才流行起来的Project,并且在科学计算上使用频繁。
深度学习在06年立项,当时的数据集小的可怜,只需要CPU仿真一下。
09年,Stanford的CV实验室公布ImageNet后,深度学习开始拥抱大数据。
浅层结构+大数据尚且依赖云计算,深度结构+大数据的需求则是云计算提供不了的。
12年,Hinton组的Alex开源了cuda_convnet,正式大规模使用GPU。衍生出Theano、Caffe等项目。
在今天,如果你要修改这些项目代码,包括自己的创新改良,不会CUDA是不行的。
这也是深度学习带来的一个全新领域,它要求研究者不仅要理论强,建模强,程序设计能力也要过硬,不能纸上谈兵。
单从这点来看,深度学习依然和传统机器学习学派分道而行(多使用CPU多线程、云计算)。
大规模分布式CPU云应该尽量避免,尽管面子大,唬人效果好,但毕竟计算效率低,平台组建麻烦。
高效的程序设计,应当从单机中,榨取更多的计算力,进而考虑多机联合。
CUDA物理计算体系
1.1 CUDA特性
CUDA可以说是介于NVIDIA Driver和DirectX等库的中间产物。
传统游戏开发者,无须考虑太多GPU硬件架构,毕竟A卡、N卡水火不容。
通过设备商提供的Driver,DirectX或者OpenCL可以将不同架构的硬件底层封装,提供给开发者共有的API。
而CUDA,则可以看成是Driver、DX之流的上级。
为了泛型编程(C、C++、Fortran多语言)、以及榨取更多的计算力,NVIDIA对OpenCL进行的改装,
贴合自己的GPU硬件架构,量身定做出CUDA。
较游戏程序员不同,CUDA程序员主要工作,就是把握硬件架构,在算法理论时间复杂度下,
将算法串行执行体系,改组为并行执行体系。违背硬件的并行设计,只会让你的程序跑的百倍之慢。
1.2 NVIDIA GPU三大经典架构(Fermi、Kepler、Maxwell)
与海贼王里CP9 (道力可以反映一个人的战斗力,但不能完全决定一个人的实力)设定相似:
NVIDIA为它在不同成长阶段卖出的产品,规定了计算能力体系:
计算能力1.0是跑CUDA的最低条件,这一时期的代表作是8800GT家族。
Fermi架构的计算能力是2.0, Kepler是3.0,Maxwell是4.0。
1.2.1 年轻有为的Fermi(费米)
Fermi架构,也就是GTX 4XX系卡,这算是CUDA的一个重要转折点&&它把流处理器(SP)改名为"CUDA核心"。
NVIDIA的:
NVIDIA的物理计算体系以分为SM、CUDA核心两大部分。
官方称SM为Stream Multiprocessors(流多处理器),民间多译为SM计算阵列。
物理计算体系对于程序员是透明的,需要调度NVIDIA提供的逻辑计算体系(线程Grid、线程Block、线程Thread)
对于一个指定好逻辑计算体系的任务,GPU会按照负载均衡的原则,将任务平均分至各个SM阵列,
对于每个SM阵列,就调度它手下那一伙CUDA核心干活。
由于每个SM阵列的CUDA核心有限,NVIDIA规定,Fermi架构,每个SM最多并行执行1024个线程。
当然,实际任务中,每个SM会分到几百万个线程,这时候,就只能小部分并行,然后再串行了。
Fermi 1.0架构,官方设计是16组SM,512SP,然而旗舰GTX480最后只弄出了15组,480SP,顺次阉割出GTX470、GTX460。
Fermi 2.0架构,旗舰GTX580,总算达到设计图要求,达到了16组,512SP,顺次阉割出了GTX570,GTX560。
1.2.2 老当益壮的Kepler(开普勒)
Kepler架构最大变化在于, 对每个SM阵列,将SP数量扩大到6倍,达到192SP。谓之曰SMX阵列。
每个SMX阵列,包含192个CUDA核心,单次并行吞吐量是2048个线程。
Kepler&1.0架构,官方设计是15组SM,2880SP,然而旗舰GTX580最后只弄出了8组,1536SP,顺次阉割出GTX570、GTX560。
Kepler 2.0架构,旗舰GTX680,总算达到设计图要求,达到了15组,2880SP,顺次阉割出了GTX670,GTX660。
特别版,GTX Titan Z,直接把两块GK110并在一起,合出了30组,5760SP,同时支持双精度浮点计算。
其阉割掉双精度之后,就是GTX690。
值得一提的是,GTX游戏卡直接把双精度阉割掉了,因为只有Tesla做科学计算的时候,才会用双精度浮点运算。
整体来看,Kepler并没有提升SM阵列数量(在产量情况下,GTX 5XX居然只造出了8组)。但是每个阵列的吞吐量扩大到2倍()。
速度也较之提升(CUDA核心扩大到6倍)。
在GTX 6XX系中,15组SM阵列,总算达到了Fermi的两倍吞吐量。
1.2.3 "长者"风范的Maxwell(麦克斯韦)
Maxwell架构是老黄的无奈之举。因为台积电把20nm工艺让给了ARM系(Apple和高通)。
还是基于28nm的Maxwell,继续在SM上大刀阔斧闹改革,将192SP降低为128SP,谓之曰SMM阵列。
Maxwell 最新架构,官方设计是16组SM,2048SP,为旗舰GTX980,顺次阉割出GTX970,GTX960。
特别版,GTX TitanX,24组SM,3072SP,较之TitanZ,阉掉了双精度浮点数支持。
TitanX是老黄在GTC 2015向DL界主推的一块民用卡,因为DL无需高精度浮点,用Tesla太奢侈。
(仔细分析老黄那自信满满进攻DL领域的表情,拿TitanX打游戏实在有点.....)
降低了SP数量之后,Maxwell得到了功耗和性能之间的权衡调整。
1.3 设备信息
编译CUDA Examples下的deviceQuery,你可以看到GPU的基本信息。
红字标出的,是设计并行程序时需要参考的几个重要设备参数。
CUDA逻辑计算体系
2.1 线程网格(Grid)、线程块(Block)、线程(Thread)、线程束(Warp)
2.1.1 内核函数
内核函数是并行计算中最基本的单元函数,其特点是:
统一的处理逻辑代码,分布并行掌控不同区域的数据,以此达到多区域数据联动并行执行。
NVIDIA为了CPU在逻辑上,能调度GPU计算的函数,规定了统一的格式。
以__global__限定符为始,声明:__global__ void helloworld()。
__global__意思为,GPU执行,CPU调用
调用时,需要分配& &&&线程块,块内线程数&&&。
如执行helloword,使用1个线程块,块内使用256个线程,则
helloworld&&&1,256&&&
2.1.2 线程网格(Grid)
线程网格在编程时并不存在,它只是抽象上的并行网格体系。
不同种类的内核函数,每种内核函数调度数个的线程块,这数个线程块逻辑上被判为一个Grid。
2.1.3 线程块(Block)
线程块是一个3D结构,强调3D坐标系时,需要以dim3类型声明三维大小。
dim3是个结构体, 成员x、y、z,代表方向轴尺度。
如helloworld&&&dim3(1,1,1),256&&&。
当然,大部分操作基本使用的是1D坐标系,线程块默认全部扩展到X轴上。
一般写成helloworld&&&1,256&&&。
通常在内核函数内,需要获取线程块编号,以便对数据集的不同区域处理,四大重要属性:
?dim3 gridDim(不是指有多少Grid,而是指一个Grid有多少Block)
?dim3 blockDim(不是指有多少Block,而是指一个Block有多少Thread)
?dim3 blockIdx
?dim3 threadIdx
对于1D坐标系,有int tid= (blockDim.x*blockIdx.x) + threadIdx.x;
tid指明当前线程的编号,是内核函数里最基本的控制变量。
int step=(blockDim.x * gridDim.x);
由于CUDA限制每个Block的线程数(2.0以上通常使用1024,以下通常使用512)
所以在常规元素分解模型中,通常把每个Block的线程数设置为常量(固定不动)
这时,有两个策略:
① 其一,不固定Block:
这种方法最为常用,由于CUDA对每个任务而言,对Block数量的限制很松,
这时候,可以采取为每个线程分配一个元素的方法,用
$BLOCKS=(N + THREADS - 1) / THREADS$
算出一个动态的Block数量的需求,这时候,for(i=i&N;i+=step)等效于for(i=i&N;i+=1)
因为这个循环根本不会执行第二次。
① 其二,固定Block数量:
这时,这时候,为了跑完全部的N个元素,有些Thread会启动人工循环。
i+=step会将元素坐标继续跳转,因为N必然大于step,你不能用+1来取剩余的元素吧?
这两种方法本质上是等效的,由于在物理执行时,同时并行线程最多大概是3072,
几百万、甚至几千万的Block会被CUDA扔到等待队列里,由CUDA自己安排自动循环,
有时甚至比你的人工循环更高效,所以,通常用①的方法,为了保持写法一致,step也会作为默认跳转量。
2.1.4 线程(Thread)
CUDA逻辑体系里最基本的执行单位,等效于CPU的线程。
内核函数一旦被指明了线程块大小,线程大小后,每个线程就分配到了一个内核函数的副本。
区别这些的线程的唯一方法就是线程编号tid,通过tid,让不同线程窥视数据集的不同部分。
用相同的逻辑代码,执行数据空间的不同子集。
2.1.5 线程束(Warp)
线程束对用户透明,它是NVIDIA强行规定的。目前显卡都固定为32。
逻辑上,线程束将32个线程编为一组。
一般微机系统,如8086,它的访存模式是串行的。每一个总线周期,吞一个字节进来。
NVIDIA的GPU在一个总线周期内,能够最大吞32*4=128字节。
前提是当个线程束内的线程,逐序访问显存,这特别需要设计数据存储形式。
使用线程束的目的是掩盖单个总线周期过长的问题,通常要跑500~600个T周期。
简单样例: HelloWorld、向量加法
3.1 CUDA程序基本结构
CUDA的编译器NVCC只能编译.cu文件。cu文件可以看作是h&cpp文件的混合体。
所有代码可以写在一个cu文件里,但是毫无可读性。
CUDA最大的亮点在于提供C(C++)接口,所以设计模式应该保持传统C程序风格。
?风格一:将不同函数写进不同cu文件里,模块化。
看起来挺好的,实际操作起来比较麻烦。
NVCC编译器在生成程序时,不支持跨文件link,也就是说,#include一个cu文件,会导致重定义。
VS中会这么报错:
error LNK2005: "void __cdecl cudaStrcpy(char *,char *)" (?cudaStrcpy@@YAXPAD0@Z) 已经在 gpu_helloworld.cu.obj 中定义
所以,NVCC编译完cu文件后,要在项目属性里把冲突的cu文件从生成中排除,然后link。
?风格二:h、cpp、cu混用
上图中指明了,h&cpp是由C编译器来编译的。C编译器里不允许#include一个cu文件(不支持)
否则VS会报错
main.obj : error LNK2001: 无法解析的外部符号 _threadIdx
解决方案:
若要引用cu里的函数,在main.cpp里外部extern声明一下,让VS转为NVCC编译器处理。
3.2 GPU版HelloWorld
3.2.1 内存与显存之争
&&老板,我要4G显存的显卡。
&&& &&亲,这是我们最新款显卡GT810,4G显存哦,只要399。您看那个GTX960
&&&&&&&&& 才2G显存,跑游戏卡死了。
&&好,我就买这个了。
买显卡,看显存大小,似乎已经成了电脑小白必带的标签。
显存是什么?显卡中最慢的外部存储体,焊在PCB板上,与GPU独立,想来几斤就有几斤。
?DDRIII的内存,传输带宽是30~40GB\s,也就是说,每秒能访存30~40GB数据。
?笔记本GDDR5的显存,带宽大概是80GB\s。
?GTX960的带宽是148GB\s。
?淘宝杂牌显卡,带宽大概是40~50GB\s。
?GPU的Cache带宽大概是1.5TB\s,CPU的寄存器带宽大概是15TB\s。
?GPU大概有50%的T周期浪费在访问显存上。作为GPU上最慢最庞大的存储体,显存带宽极为重要。
★★★结论:根据木桶原理,访存速度远远远远远小于并行处理速度,因而I/O瓶颈是GPU的最大问题。
★★★CPU不可以直接访显存,仅__device__、__global__函数有权访问,所以需要内存显存数据相互转移。
3.2.2 内存与显存大挪移
一般来说,一个CUDA程序必然少不了以下三步:
?cudaMalloc:创建新的动态显存堆
?cudaMemcpy:将主机(Host)内存复制到设备(Device)显存
?显存处理完之后,cudaMemcpy:设备(Device)显存复制回主机(Host)内存,释放显存cudaFree
其中第三步最容易遗忘。要知道,CPU最后是无法使用显存中的数据的。
3.2.3 GPU设备选择
CUDA并行有三大境界
?多台机器间并行
?多路显卡间并行
?单卡多线程并行
一般单机中需要操控多路显卡交火,比如AlexNet就是典型的双路交火结构。
不像孤岛危机之类的游戏那样,CUDA需要手动检测、切换设备,这是一切计算的开头准备工作。
下面的InitCUDA函数演示了单卡计算的设备选择:
#include "cuda_runtime.h"
#include "cstdio"
bool InitCUDA()
cudaGetDeviceCount(&cnt);
printf("No GPU Device\n");
return false;
for (i = 0; i & i++)
cudaDeviceP
if (cudaGetDeviceProperties(&device, i)==cudaSuccess)
if (device.major &= 1) break;
if (i == cnt)
printf("GPU's Computing Capability must higher than 1.0\n");
return false;
cudaSetDevice(i);
return true;
InitCUDA()
只有计算能力&=1.0(8800GT以上)的N卡才能做CUDA计算,默认选择符合条件的第一块卡。
3.2.4 HelloWorld
GPU版HelloWorld,主要目的是演示CUDA基本程序框架:
?将HelloWorld复制进显存
?让GPU完成strcpy函数
?将显存中的HelloWorld转回内存,并且打印
/****kernel.cu****/
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
__global__ void cudaStrcpy(char *des, char *src)
/*内核函数*/
while ((*src) != '\0') *des++ = *src++;
*des = '\0';
/****gpu_helloworld.cu****/
#include "device.cu"
#include "kernel.cu"
#include "cstring"
void helloworld(char *str1, char *str2)
InitCUDA();
char *dev_str1=0, *dev_str2=0;
int size = strlen(str1) + 1;
cudaMalloc((void**)&dev_str1, size);
/*cuda系函数必须放在cu文件里*/
cudaMalloc((void**)&dev_str2, size);
cudaMemcpy(dev_str1, str1, size,cudaMemcpyHostToDevice);
cudaStrcpy&&&1,1&&&(dev_str2, dev_str1); /*单线程块、单线程*/
cudaMemcpy(str2, dev_str1, size, cudaMemcpyDeviceToHost);
/****main.cpp****/
#include "cstdio"
#include "cstring"
extern void helloworld(char *str1, char *str2);
int main()
char src[] = "HelloWorld with CUDA";
char *des = new char[strlen(src)+1];
helloworld(src, des);
printf("%s\n", des);
&3.3 GPU版向量加法
向量加法是CUDA 7.0在VS中提供的样例模板,演示了并行算法的经典trick:循环消除。
利用单个线程块中,多个线程并发执行,来消除循环。
时间复杂度估计,不能简单从O(n)迁移到O(1),因为GPU同时并行量存在限制。
即便是Kepler架构中拥有192SP的SM阵列,理论同时并行量也不过是2048。
/****kernel.cu****/
__global__ void kernel_plus(int *a, int *b, int *c)
int x = threadIdx.x;
c[x] = a[x] + b[x];
/****gpu_vectoradd.cu****/
void vectorAdd(int *a, int *b, int *c,int size)
if (!InitCUDA()) return;
int *dev_a = 0, *dev_b = 0, *dev_c = 0;
cudaMalloc((void**)&dev_a, size*sizeof(int));
cudaMalloc((void**)&dev_b, size*sizeof(int));
cudaMalloc((void**)&dev_c, size*sizeof(int));
cudaMemcpy(dev_a, a, size*sizeof(int), cudaMemcpyHostToDevice);
cudaMemcpy(dev_b, b, size*sizeof(int), cudaMemcpyHostToDevice);
kernel_plus && &1, size && &(dev_a, dev_b, dev_c);
cudaMemcpy(c, dev_c, size*sizeof(int), cudaMemcpyDeviceToHost);
/****main.cpp****/
extern void vectorAdd(int *a, int *b, int *c, int size);
int main()
int a[5] = { 1, 2, 3, 4, 5 }, b[5] = { 10, 20, 30, 40, 50 }, c[5] = { 0 };
vectorAdd(a, b, c,5);
printf("{1,2,3,4,5} + {10,20,30,40,50} = {%d,%d,%d,%d,%d}\n",
c[0], c[1], c[2], c[3], c[4]);
阅读(...) 评论()&&|&&责编:张伟
1关于CPU的误区有哪些  DIY攒机发展至今已30余年,可大部分消费者依然对电脑硬件不甚了解,在装机时闹出不少。有些消费者在前去卖场购买电脑时害怕被坑还要带上朋友参考,殊不知一知半解比完全不懂更可怕,商家会利用你的心理让你购买并非你所需的硬件。笔者在各大论坛贴吧经常看到不少人为装机的问题烦恼,所以今天就和大家一起聊聊新手装机可能遇到的误区。1、认准i7?看型号要看全  自从Intel推出酷睿系列以来,由于型号辨识度及高,一些所谓电脑高手就会对新手说,买电脑就得买i7、i5电脑,什么年代了还用i3电脑,更别说奔腾赛扬系列了。同一代产品自然是i7&i5&i3,但不同代产品就不能这样简单比较了。拿i7&860举例,虽然名为i7但性能还不如二代i5&2500。消费者在攒机时一定要看好CPU的具体型号,避免上当受骗。2、CPU核心数量决定性能?  核心数越多并不代表性能越好,因为这里面还涉及到优化和架构效率的问题,小白们没必要盲目追求超多核。苹果一直采用双核处理器,性能却比某些八核处理器还要强。核心数目越多多任务处理能力越强,但任何多核程序的加速比都存在一个上限,即便是核心数量无限多,最后的性能也只取决于单线程的部分。&2关于散热器的误区有哪些3、风扇越大散热性越好吗?  通常情况下大尺寸的风扇在同转速下可能获得更大的风量,但是在得到同样风量的条件下,大尺寸风扇相对小尺寸风扇来说可以得到更好静音效果。&但其实扇叶的增大对于风压是没有任何作用的,高风压对于散热器的作用是不可小觑的,如果风量增加并且风压降低,那么结果很可能导致散热器上的热量难以被吹出,导致必须增大转速才能达到预定的散热效果,然而增大转速后,随之而来就就是更大噪音。4、水冷散热比风冷效果好?  从定位来讲,水冷散热器确实是高于风冷的。单从散热方式来说,由于水的比热容比较大,所以水冷的散热能力要远大于传统的风冷散热器。但很多一体水冷内部存水量较小,导致水流循环的距离大幅缩短,热量不能完全被排出。同时水冷散热器散热片的厚度和密度较大,要增大风扇转速才能吹透散热器,噪音问题也比较突出。这些原因造成了很多一体水冷散热效果不如顶级风冷效果好的现象。3关于主板的误区有哪些5、大板比小板稳定?&  很多“懂行”的朋友一看见小板就嗤之以鼻,再来一句,这板子缩的不成样子!其实大小板的做工一样,稳定性是没有任何区别的,不同在于大板可扩展性更强。如果介意一些小板的三相供电,完全可以购买四项供电小板,也没必须要多花费200元选择同样为四项供电的大板。只有预算非常充足的客户和有特殊需求的客户(如需要插很多PCI卡)多的PCI设备适合大板,多数客户应该首选小板,性价比更高。6、供电相数越多就是好主板?  对主板有所了解的朋友挑选主板时会通过主板供电多少还判断主板好坏,这不是一个明智的方法。由于设计、料件和布线的不同,一相供电电路所能承载的电流大小就会有所差异。对于大部分主板,四相供电足以满足非超频状态下处理器的供电需求,同时高转换效率,也可以节约部分电费开支。4关于显卡的误区有哪些7、显存越大越好?  在消费者选购显卡的时候都会注意到显卡另一个重要的参数,那就是显存容量。但是显存容量是不是越大显卡的数据吞吐量就会越强,性能表现是不是更好呢?其实并不是这样的,显卡带宽处理能力是由显存带宽决定的,显存带宽=(显存位宽*显存工作频率)/8。所以消费者在选购的时候一定要注意显存频率和显存位宽这两个关键性数据,这才是决定显卡吞吐量的关键所在。下图这款GT630显存就是4GB的,但是性能甚至达不到GTS450的级别。8、小显卡性能不佳?  说起半高显卡、小显卡,很多用户总会与做工缩水、性能低下联系起来。长久以来,市场上销售的小显卡卡基本上都是以低端产品为主,另外不少厂商为了成本,也会将一些主流产品降低规格做成半高板型,这样久而久之就会让用户有这样一种感觉,小卡不如大卡。但现在已经有很多高性能小显卡上市,比如R9&NANO,虽然大小只有普通显卡的一半,性能却与GTX980相当,堪称史上能量密度最高的一块显卡。5关于固态硬盘装机误区9、TLC固态硬盘寿命短?  由于TLC颗粒成本较低,许多主流固态硬盘厂商都推出TLC颗粒的固态硬盘。但TLC颗粒写入寿命为1000PE,用户担心TLC寿命短,仍然不敢购买。&为此中关村在线评测室进行了一项长达3个月的TLC耐久度试验,到目前为止已经写入400TB数据,在测试中这几款固态硬盘没有出现任何质量问题。200TB写入报告详情写点击《》,由此可见,普通用户根本无需考虑TLC颗粒固态硬盘寿命问题,放心使用吧!10、固态需要碎片清理?& 在机械硬盘时代,机械硬盘在使用一段时间后,由于反复写入和删除文件,磁盘中的空闲扇区会分散到整个磁盘中不连续的物理位置上,从而使文件不能存在连续的扇区里。这样,再读写文件时就需要到不同的地方去读取,增加了磁头的来回移动,降低了磁盘的访问速度。而固态硬盘没有机械硬盘的磁头机构,寻址时间几乎可以忽略不计,所以不需要碎片清理。并且会对硬盘进行频繁地擦写,会损耗SSD内部的寿命。6关于电源的误区有哪些11、电源功率越高越费电?&  有些朋友认为,电源功率越高越费电。其实不然,电脑的的耗电完全以硬件工作状态所需的耗电量来决定的,电脑的电源仅仅是一个“能量池”,瓦数越大能负载的电量就越多而已。  实际上,大功率电源配小功耗主机,使电源使用的余量更大,电源会使用得更久,更稳定。电源只是起到转换作用。虽然不是功率越大耗电就越多,但用户也无需无限度地配置功率过大的电源产品。12、模组电源比非模组好?  模组电源与非模组电源线材最大的不同就是线材,模组电源需要自己动手接上自己需要的线材,而非模组电源则无法按照自己的需求链接线材。模组电源可以更好的支持走背线,可以使机箱内部更整齐,散热效果更好。但模组电源是通过模组电路PCB板作为媒介再输出到模组线材,因而电压稳定性也会有所下降,同时模组电源比非模组电源发生接触不良的概率也要高,所以普通用户购买电源时无需过于追捧模组电源。  小结:DIY装机误区多,尤其是对与入门小白玩家来说更是致命伤,本文作者为您盘点了几个容易避免的小误区,为您在今后装机中起到帮助作用。DIY攒机看似简单实际却复杂的多,每个人在装机时都会犯各种各样的错误,但这正是DIY的魅力所在,最后希望大家都可以成功DIY一台专属自己的爱机!
配置类型 CPU系列
投诉欺诈商家:
天津重庆哈尔滨沈阳长春石家庄呼和浩特西安太原兰州乌鲁木齐成都昆明贵阳长沙武汉郑州济南青岛烟台合肥南京杭州东莞南宁南昌福州厦门深圳温州佛山宁波泉州惠州银川
本城市下暂无经销商
4¥999995¥61996¥33997¥28998¥25999¥2999910¥3999}

我要回帖

更多关于 最强狂兵小白 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信