人工智能AI的发展及硬件技术分析.docx
- 文档编号:27399591
- 上传时间:2023-06-30
- 格式:DOCX
- 页数:7
- 大小:486.40KB
人工智能AI的发展及硬件技术分析.docx
《人工智能AI的发展及硬件技术分析.docx》由会员分享,可在线阅读,更多相关《人工智能AI的发展及硬件技术分析.docx(7页珍藏版)》请在冰豆网上搜索。
人工智能AI的发展及硬件技术分析
计算机人工智能AI的发展及硬件技术分析
摘要:
本篇文章首先对计算机人工智能基本含义进行概述,从兴起阶段、应用阶段、发展阶段、未来发展四个方面,对计算机人工智能AI的发展进行分析,并以此为依据,提出计算机硬件技术及人工智能技术应用方向。
关键词:
计算机;人工智能AI;发展;硬件技术
1.引言
在当前我国社会经济水平不断提升的背景下,社会各个科学力量逐渐夯实,尤其是计算机技术的快速发展,促进了我国社会经济的稳定发展。
现阶段,计算机技术已经不再只是提供数据运算等流程,同时为了迎合人们发展需求,计算机更具现代化和智能化。
人工智能作为一项富有人性化及智能化的现代化计算机技术,已经得到了各个领域的应用,并获取了一定的应用效果。
然而,在人工智能技术发展过程中依旧存在诸多问题,基于此,本文将重点探究计算机人工智能AI的发展及硬件技术,以此希望可以助力我国计算机人工智能事业的稳定发展。
2.计算机人工智能基本概述
从理论角度来说,人工智能主要是把计算机技术当作基本,通过对人类行为规律的探究,模拟其工作模式及思考思维而研发的一种现代化系统,其涉及的知识领域繁多,其中包含了社会哲学、心理学及行为学等。
经过多年的探究和发展,人工智能技术已经成为了当前广泛应用的现代化技术。
通过应用计算机人工智能技术,对社会发展起到了重要意义。
计算机人工智能作为一项富有多元化的技术,其不仅仅指字面中的“智能”。
根据整体结构进行划分,可以把计算机人工智能技术划分为四部分。
首先,智能感知。
具体主要指,智能感知主要是通过应用计算机技术将一些不具备生命特性的设备让其富有感知、模拟等功能,让设备能够自主识别人们应用感官感知周围事物[1]。
其次,智能学习。
人和其他生物之间存在的本质区别就是人具备学习能力。
近几年来,计算机人工智能在此领域中获取一定效果。
再次,智能推理。
“阿尔法狗”就是一项较为繁琐的体系,但是其重要内容在于具备一定推理和智能运算能力,因此能够和人类进行比较。
最后,智能运动。
此项计算机人工智能技术一般在人们中定义为人工治理,其具备的代表意义在于智能设备的发展和进步。
人工智能示意图见图1。
图1人工智能示意图
3.计算机人工智能AI的发展分析
3.1.兴起阶段
在上个世纪五十年代,人们就提出了计算机人工智能技术含义,随着诸多专业人士对其进行深入探究,并获取了一定成果。
例如计算机定理证明等。
此外,其可以给一些理论支持提供支持,例如,唐纳德·海布所提供的部分简单修改规章体系,给神经元间的强化修改提供了条件。
即便在此过程中,人工智能技术已经实现了稳定发展,但是由于该项技术中包含的学科相对较多,各个学科之间发展存在一定差别,因此不能对计算机人工智能深入发展进行探究。
并且,一些解法推理水平有待提升,因此在兴起环节中,计算机人工智能技术发展并不尽人意。
3.2.应用阶段
在上个世纪九十年代,提出了知识工程含义,随之形成了产品化智能系统及专家系统,这些系统在国际领域中实现了广泛应用,同时在部分领域中价值较为显著。
但是由于专家系统自身含有一定局限性,因此使得人工智能技术将会面临一些考研[2]。
3.3.发展阶段
在当前各个学科全面发展的背景下,给专家系统优化提供了良好条件,具体展现在智能语言等方面。
近几年,随着计算机人工智能技术的全面推广和应用,并且专家协同系统实现了稳定发展。
即便从当前情况来说,计算机人工智能技术正处于发展阶段,无论是在理论方面,还是在实践方面,发展有待完善,不过大部分专业人士已经对该项技术进行了全面探讨,由技术、方式等方面对其加以优化和剖析。
3.4.未来发展
计算机人工智能技术自身含有一定综合特性,同时发展潜力比较大,从当前技术发展状况来说,在未来发展过程中,人工智能技术将会朝着神经网络及网络处理等趋势迈进。
首先,自行推理。
其包含在计算机人工智能技术重点探究范畴内,人工智能与计算机两项技术的融合是其理论依据,主要是根据系统动态特性进行推理。
其次,智能连接。
其目的就是促进计算机和人们之间的信息传递,给人们工作及生活提供方便,因此,其自身含有一定的应用体系。
这是因此,其未来探究方向在于怎样才能实现智能连接方式的规范[3]。
最后,数据挖掘。
该项功能得到了各个领域的关注,其重点就是探究基于数据库实现知识挖掘,同时采用一系列现代化方式进行数据获取,利于可以把客观事件发展规律和联系进行体现,以此更好的获取对应目标。
4.计算机硬件技术
4.1.机箱
从机箱角度来说,其处理给计算机系统提供一个整体外形框架之外,也给计算机系统和其他配件组合提供了条件。
并且,在机箱的作用下,可以降低机箱内外辐射性,以最小的辐射来确保用户操作安全。
在当前市场中,采用的机箱形式主要以ATX结构为主。
机箱内部前面板侧的作用在于安装硬盘等构件,后侧则是安装一个电源,用于计算机系统的正常启动。
4.2.主板
主板是计算机系统中主要组成部分,主板也被称之为主机板等,安装在机箱内,它类型和等级将直接影响计算机系统类型和等级。
通常情况下,主要划分为两种,一个是AT主板,另一个是ATX主板。
其中,主板通常由诸多接口建立而成,在进行主板选择的过程中,应该对其运营效率及肩容量情况进行考核。
通过应用主板,能够便于计算机系统的操作,给CPU、内存条、图形卡等构件安装提供条件,便于各项接口的操作和连接[4]。
4.3.CPU
CPU是计算机最重要的部件之一,相当于人的大脑,内部结构划分成控制单元、逻辑单元和存储单元三部分。
目前
CPU主要接口类型有两种,一种是INTEL的LGA775(又称为SocketT),另一种是AMD的Socket940(SocketAM2)[5]。
CPU的主要性能指标:
主频、前端总线频率、L1和L2Cache的容量和速率、支持的扩展指令集、CPU内核工作电压地址总线宽度等等。
CPU示意图见图2。
图2CPU示意图
4.4.内存
所谓的内存则是指,在计算机系统中,用于保存各项数据和指令半导体的器件。
根据其应用方式,可以将其划分为两种,一个是主存储器,另一个是辅助存器。
根据内存工作情况,可以爱将其划分成ROM以及RAM。
其中,ROM具备的功能在于读取ROM及实现ROM可编程。
而RAM主要划分成静态和动态。
内存作为CPU信息处理的主要场所,其计量单位在于兆字节MB,即MillionBytes。
4.5.显示器
显示器的英文是Monitor,是计算机系统中核心内容,假设缺少显示器,在人们进行计算机系统应用时,将会缺少画面的支持。
现阶段,显示器种类繁多,人们普遍应用的显示器类型上三星、飞利浦以及索尼等大厂家生产的。
结合现象工作原理进行区分,可以把显示器划分为多种类型,例如CRT显视器、LCD显视器和等离子显视器等。
5.计算机人工智能技术应用方向
从当前情况来说,计算机人工智能技术已经在各个领域中广泛应用,例如机器翻译、智能控制、专家系统、机器人学、语言和图像理解、遗传编程机器人工厂、自动程序设计、航天应用等等。
值得一提的是,机器翻译成为了人工智能的核心内容及广泛应用的方向。
但是,结合当前机译成效来说,机译系统在译文质量上和最终目标之间存在一定差异,而机译质量是机译系统成败的关键。
为了全面提升机译质量,就要将语言本身问题进行处理,仅仅依赖于多个程序实现机译系统建立,将无法促进机译质量提升。
6.结束语
在当前科学技术不断发展的环境下,计算机人工智能技术在社会发展中发挥着重要作用。
我国人工智能技术在运营发展过程中,在迎接一定发展机遇的同时,也会面临一些考研。
所以,计算机领域的相关人士应该加大人工智能技术探究力度,对人工智能技术发展方向进行分析,明确人工智能
图1管道内检测器器里程定位系统
测器整体示意图如图2所示。
图3里程值误差校正方法
图2管道内检测器里程轮示意图
6.1.里程轮位移转换算法
管道内检测器三路里程轮转动产生机械几何位移,继而光电编码器采集位移信号,转换成电信号。
电信号转入STM32定时器,定时器配置为外部触发方式,通过定时器计数,计算出转一圈所需的脉冲数count1,继而计算出里程轮转动的圈数S。
最后根据不同尺寸的里程轮,换算出管道内检测器运行的距离。
6.2.里程误差校正
里程轮打滑引起里程轮计数误差的防止与修正,是技术关键也是难题。
因此在编程时就设置了里程值误差校正。
对三个里程值进行比较即对REG1、REG2和REG3中的数值进行比较,将最大值作为所要的里程值进行校正。
流程图如图3所示。
7.测试结果及总结
本文所用的软件为XCOM,利用串口将测试结果发送电脑,测试结果如图4所示。
通过校正之后的脉冲信息,加上转换算法,可以得出里程轮相对准确的里程信息。
相对于传统的里程轮定位系统,设计了管道内检测器精确定位系统,实现了管道内检测的精确定位,为后期损伤检测提供了良好的条件。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 AI 发展 硬件 技术 分析
![提示](https://static.bdocx.com/images/bang_tan.gif)