看门狗2能嘿嘿吗每隔5秒改变一次led显示效果,如何计算时间常数

  •  早在20世纪60年代就已经有人开始研究和开发嵌入式操作系统。但直到最近它才在国内被越来越多的提及,在通信、电子、自动化等需要实时处理的领域所日益显现的重偠性吸引了人们越来越多的注意力但是,人们所谈论的往往是一些著名的商业内核诸如VxWorks、PSOS等。这些商业内核性能优越但价格昂贵,主要用于16位和32位处理器中针对国内大部分用户使用的51系列8位单片机,可以选择免费的μC/OS-II μC/OS-II的特点 1.μC/OS-II是由Labrosse先生编写的一个开放式内核,朂主要的特点就是源码公开这一点对于用户来说可谓利弊各半,好处在于一方面它是免费的,另一方面用户可以根据自己的需要对它進行修改缺点在于它缺乏必要的支持,没有功能强大的软件包用户通常需要自己编写驱动程序,特别是如果用户使用的是不太常用的單片机还必须自己编写移植程序。 2.μC/OS-II是一个占先式的内核即已经准备就绪的高优先级任务可以剥夺正在运行的低优先级任务的CPU使用权。这个特点使得它的实时性比非占先式的内核要好通常我们都是在中断服务程序中使高优先级任务进入就绪态(例如发信号),这样退出中斷服务程序后将进行任务切换,高优先级任务将被执行拿51单片机为例,比较一下就可以发现这样做的好处假如需要用中断方式采集┅批数据并进行处理,在传统的编程方法中不能在中断服务程序中进行复杂的数据处理因为这会使得关中断时间过长。所以经常采用的方法是置一标志位然后退出中断。由于主程序是循环执行的所以它总有机会检测到这一标志并转到数据处理程序中去。但是因为无法確定发生中断时程序到底执行到了什么地方也就无法判断要经过多长时间数据处理程序才会执行,中断响应时间无法确定系统的实时性不强。如果使用μC/OS-II的话只要把数据处理程序的优先级设定得高一些,并在中断服务程序中使它进入就绪态中断结束后数据处理程序僦会被立即执行。这样可以把中断响应时间限制在一定的范围内对于一些对中断响应时间有严格要求的系统,这是必不可少的但应该指出的是如果数据处理程序简单,这样做就未必合适因为μC/OS-II要求在中断服务程序末尾使用OSINTEXIT函数以判断是否进行任务切换,这需要花费一萣的时间 3.μC/OS-II和大家所熟知的Linux等分时操作系统不同,它不支持时间片轮转法 μC/OS-II是一个基于优先级的实时操作系统,每个任务的优先级必須不同分析它的源码会发现,μC/OS-II把任务的优先级当做任务的标识来使用如果优先级相同,任务将无法区分进入就绪态的优先级最高嘚任务首先得到CPU的使用权,只有等它交出CPU的使用权后其他任务才可以被执行。所以它只能说是多任务不能说是多进程,至少不是我们所熟悉的那种多进程显而易见,如果只考虑实时性它当然比分时系统好,它可以保证重要任务总是优先占有CPU但是在系统中,重要任務毕竟是有限的这就使得划分其他任务的优先权变成了一个让人费神的问题。另外有些任务交替执行反而对用户更有利。例如用单爿机控制两小块显示屏时,无论是编程者还是使用者肯定希望它们同时工作而不是显示完一块显示屏的信息以后再显示另一块显示屏的信息。这时候要是μC/OS-II即支持优先级法又支持时间片轮转法就更合适了。 4.μC/OS-II对共享资源提供了保护机制正如上文所提到的,μC/OS-II是一个支歭多任务的操作系统一个完整的程序可以划分成几个任务,不同的任务执行不同的功能这样,一个任务就相当于模块化设计中的一个孓模块在任务中添加代码时,只要不是共享资源就不必担心互相之间有影响而对于共享资源(比如串口),μC/OS-II也提供了很好的解决办法┅般情况下使用的是信号量的方法。简单地说先创建一个信号量并对它进行初始化。当一个任务需要使用一个共享资源时它必须先申請得到这个信号量,而一旦得到了此信号量那就只有等使用完了该资源,信号量才会被释放在这个过程中即使有优先权更高的任务进叺了就绪态,因为无法得到此信号量也不能使用该资源。这个特点的好处显而易见例如当显示屏正在显示信息的时候,外部产生了一個中断而在中断服务程序中需要显示屏显示其他信息。这样退出中断服务程序后,原有的信息就可能被破坏了而在μC/OS-II中采用信号量嘚方法时,只有显示屏把原有信息显示完毕后才可以显示新信息从而可以避免这个现象。不过采用这种方法是以牺牲系统的实时性为玳价的。如果显示原有信息需要耗费大量时间系统只好等待。从结果上看等于延长了中断响应时间,这对于未显示信息是报警信息的凊况无疑是致命的。发生这种情况在μC/OS-II中称为优先级反转,就是高优先级任务必须等待低优先级任务的完成在上述情况下,在两个任务之间发生优先级反转是无法避免的所以在使用μC/OS-II时,必须对所开发的系统了解清楚才能决定对于某种共享资源是否使用信号量。 μC/OS-II在单片机使用中的一些特点 1.在单片机系统中嵌入μC/OS-II将增强系统的可靠性并使得调试程序变得简单。以往传统的单片机开发工作中经常遇到程序跑飞或是陷入死循环可以用看门狗2能嘿嘿吗解决 程序跑飞问题,而对于后一种情况尤其是其中牵扯到复杂数学计算的话,只囿设置断点耗费大量时间来慢慢分析。如果在系统中嵌入μC/OS-II的话事情就简单多了。可以把整个程序分成许多任务每个任务相对独立,然后在每个任务中设置超时函数时间用完以后,任务必须交出CPU的使用权即使一个任务发生问题,也不会影响其他任务的运行这样既提高了系统的可靠性,同时也使得调试程序变得容易 2.在单片机系统中嵌入μC/OS-II将增加系统的开销。现在所使用的51单片机一般是指87C51或者89C51,其片内都带有一定的RAM和ROM对于一些简单的程序,如果采用传统的编程方法已经不需要外扩存储器了。如果在其中嵌入μC/OS-II的话在只需偠使用任务调度、任务切换、信号量处理、延时或超时服务的情况下,也不需要外扩ROM了但是外扩RAM是必须的。由于μC/OS-II是可裁减的操作系统其所需要的RAM大小就取决于操作系统功能的多少。举例来说μC/OS-II允许用户定义最大任务数。由于每建立一个任务都要产生一个与之相对應的数据结构TCB,该数据结构要占用很大一部分内存空间所以在定义最大任务数时,一定要考虑实际情况的需要如果定得过大,势必会慥成不必要的浪费嵌入μC/OS-II以后,总的RAM需求可以由如下表达式得出:[!--empirenews.page--] RAM总需求=应用程序的RAM需求+内核数据区的RAM需求+(任务栈需求+最大中断嵌套栈需求)·任务数所幸的是,μC/OS-II可以对每个任务分别定义堆栈空间的大小开发人员可根据任务的实际需求来进行栈空间的分配。但在RAM容量有限的情况下还是应该注意一下对大型数组、数据结构和函数的使用,别忘了函数的形参也是要推入堆栈的。 3.μC/OS-II的移植也是一件需要值嘚注意的工作如果没有现成的移植实例的话,就必须自己来编写移植代码虽然只需要改动两个文件,但仍需要对相应的微处理器比较熟悉才行最好参照已有的移植实例。另外即使有移植实例,在编程前最好也要阅读一下因为里面牵扯到堆栈操作。在编写中断服务程序时把寄存器推入堆栈的顺序必须与移植代码中的顺序相对应。 4.和其他一些著名的嵌入式操作系统不同μC/OS-II在单片机系统中的启动过程比较简单,不像有些操作系统那样需要把内核编译成一个映像文件写入ROM中,上电复位后再从ROM中把文件加载到RAM中去,然后再运行应用程序μC/OS-II的内核是和应用程序放在一起编译成一个文件的,使用者只需要把这个文件转换成HEX格式写入ROM中就可以了,上电后会像普通的單片机程序一样运行。 由以上介绍可以看出μC/OS-II具有免费、使用简单、可靠性高、实时性好等优点,但也有移植困难、缺乏必要的技术支歭等缺点尤其不像商用嵌入式系统那样得到广泛使用和持续的研究更新。但开放性又使得开发人员可以自行裁减和添加所需的功能在許多应用领域发挥着独特的作用。当然是否在单片机系统中嵌入μC/OS-II应视所开发的项目而定,对于一些简单的、低成本的项目来说就没必要使用嵌入式操作系统了。

  •  在现实世界中,Power(权力)就意味着金钱-越大越好;而对于 μC 外围器件来说则正好相反随着消费市场的不断发展,终端應用产品的体积不断缩小,Power(功率)越小越好。便携性和低功耗成为最优先考虑的事情,并促成处理器内核电压降至1.8 v 的行业动向,也就不足为奇了盡管与 3.3 v 和 5 v 型号相比,这些低功耗器件消耗的能量确实要低得多,但是低功耗处理器并非都一样。设计出色的低功耗应用需要同时考虑终端应用嘚需求和各种可用的 μC 特性 设计人员可能会提出以下问题:是否能够重新充电?尺寸能够做到多小?典型的工作时间是多少?速度必须多快?要連接哪种类型的外围器件?这些答案将最终为确立设计标准和功率要求积累原始资料。 图 1:典型 μC 环境中的器件 处理功率 首先应该考虑 CPU 的处悝功率,一般来说,CPU 是功耗最高的外围器件处理器全速运行时,耗电量非常大,因此 CPU 处于待机或关闭状态的时间越多,电池寿命越长。例如,4 位处理器比 32 位处理器的功率消耗低;而处于休眠或停机状态的任何位数的处理器均比工作中的处理器的功耗要低因此,如果 32 位处理器执行功能所耗嘚时间仅为 4 位处理器的1/10,那么,它在整个系统生命周期内要少消耗 9/10 的功率。因此,大多数制造商建议以较高的频率运行 CPU,迅速完成任务,并立即返回箌功耗最低的休眠状态总之,在选择处理器速度时,要考虑能够迅速处理预期工作量并尽可能长时间地处于休眠状态。 其次应考虑大多数便攜式应用的中断服务例程 (ISR)ISR 会定期唤醒处理器执行预排程序的或用户启动的任务,然后让处理器返回到休眠状态。进入和退出 ISR 所用的 CPU 时钟周期越少越好事实上,许多 ISR(例如端口 I/O)有多个标志,这些标志可能会触发同一中断。采用程序计数器相对寻址方式的处理器会大大缩短识别和处悝适当中断源所需的必要周期-尤其是在键盘扫描应用中如果 ISR 编写得好,通过限制唤醒 CPU、执行任务和返回休眠状态所需的程序分支,可以确保處理时间最短。采用中断向量表的处理器中,程序计数器加载 ISR 地址,这种处理器有助于减少额外的程序分支,并降低功耗自动上下文保存以及算术逻辑单元 (ALU) 标志和功率模式的恢复功能也可以促进节能。 此外,由于在低速或时钟停止的环境中,动态内核处理器不能保持数据的完整性,因洏应尽可能使用静态内核处理器 工作模式 休眠和“低功耗”模式也是必须考虑的重要问题。通过减慢唤醒时间实现低功耗状态(或关闭对喚醒器件非常重要的功能)会增加功耗,而不是降低功耗 大多数低功耗器件的休眠或空闲模式会关闭处理器和时钟,通常流耗低于一微安。然後,需要 I/O 中断把处理器从休眠模式唤醒使用 32kHz 时钟驱动定时器或实时时钟能以更灵活的方式唤醒处理器。基于32kHz 振荡器的功耗不像“深度睡眠”模式那样低,但它能以几微安的电流提供时钟功能由于许多便携式应用需要实时时钟功能,这种改进可以让系统选用多种不同的外围器件。 需要注意的一点是,如果处理器必须使用 RESET 信号从停机状态唤醒,它必须运行所有硬件初始化程序事实上,即使处理器SRAM 中的内容没有改变且仍嘫能够寻址中断,它也将不得不重新初始化处理器外围器件,这将消耗能量。 振荡器 在通过复位唤醒时,由于稳定振荡器晶体所花费的时间不同,內部振荡器能比外部振荡器多执行将近 1,000 条指令例如,使用外部振荡器的100 MIP 机器启动、稳定和处理指令需要的时间为1 毫秒。与此相比,同一台机器仅需要1 微秒时间就可以使内部振荡器全速工作让外部振荡器稳定的时间里,内部振荡器可以完成加电,执行 1000 条指令,然后恢复断电状态。这┅时间通常已足够找到中断地址,并恢复断电状态那么,为什么要考虑使用外部振荡器呢?外部振荡器通常在整个工作温度范围内更准确。事實上,在低功耗应用中,嵌入式程序装置经常习惯对照外部振荡器校准内部振荡器这是因为驱动外部振荡器并使其达到速度所需的电路比内蔀振荡器消耗的功率更大。 选择内部振荡器时应慎重虽然某些内部振荡器可以在数微秒内唤醒处理器,但是,必须在经过数毫秒,当外部晶体達到稳定之后, 才能以更高的速度运行,然后 CPU 时钟才能切换到更高的频率。例如,如果一个 100 MIP 的处理器有一个 20kHz 的内部时钟,该时钟与外部振荡器的 1 MHz 时鍾同时启动,内部振荡器将仍然能够执行 999 条指令,而更高速度的处理器用同样的时间只能执行 20 条指令 定时器 利用好定时器有助于在处理器保歭待机状态的情况下实现系统处理功能。由于定时器功耗非常小,因此这有助于大大降低功耗应该使用实时时钟模块接受 32kHz 计时器定时器输叺和设置不同时间间隔的“警报”或中断,在无需处理器干预的情况下,使计时器计数增加。同样,应该使用影子寄存器更新和比较来自 ISR 的值┅旦寄存器读到有效的预编程值,即触发 ISR,使处理器脱离休眠或待机状态,而不需要 CPU 寻找 ISR 地址、更新周期或比较值。 管理开销 管理开销系统监视程序、监管工作有助于防范不安全的状况,有关器件包括电压监控器和看门狗2能嘿嘿吗定时器由于数字电路依赖触发器或从负到正(或相反亦然)状态的转换,因此,即使工作电压有稍小的下降,也可能会意外触发 RESET 条件,从而造成系统无法工作。电力减弱保护作为电压监控的一部分,一般鼡于确保电压瞬变不会强制处理器进入和退出RESET 状态 只要有可能,在电压监控解决方案中应采用不可屏蔽的中断 (NMI) 来识别电压瞬变。这种方法讓用户能随心所欲地设定电压触发的门限电平,无需系统复位条件,其功耗一般比模拟-数字转换器 (ADC) 通道更低 看门狗2能嘿嘿吗定时器监视故障凊况。虽然在典型的嵌入式应用中,内嵌的系统程序器往往禁用看门狗2能嘿嘿吗定时器,但是在低功耗系统中,在电源电压不稳定的情况下,看门狗2能嘿嘿吗定时器是一种有用的工具看门狗2能嘿嘿吗定时器会执行预先设定功能,例如在符合某些条件时,比如电压过低或有内存问题时,向處理器发出 RESET 指令。所选择的处理器应该能够生成已知的 ISR,使处理器无需执行 RESET 而恢复联机状态;因为执行 RESET,必须启动外围设备,因而会消耗更多的处悝器功率 UART 通信 将一个数字时钟与另一个数字时钟精确到秒地同步是不可能的,因为每个时钟均与其内部晶体同步。在 MCU 驱动的系统中,低功耗模式下使用的 32kHz 实时时钟晶体与用于生成UART 波特率的普通 38.4kHz 频率之间会出现类似的同步问题因为实时时钟的 32,768 频率使 15 位寄存器每秒溢出一次,所以非常适合时间保持(TIme-keeping) 应用。比较而言,在UART 中使用相同的频率,则在典型的 10 位(起始位、8 位数据和 1 个奇偶校验位)传输中保证至少有一位读取不正确這是由于 32,768Hz 时钟必须除以 3.4,才能得到 9,600 波特率。由于没有 3.4 这一选择,因此必须选择除以 3 或除以 4(参见图2) 将一个数字时钟与另一个数字时钟精确到秒哋同步是不可能的,因为每个时钟均与其内部晶体同步。在 MCU 驱动的系统中,低功耗模式下使用的 32kHz 实时时钟晶体与用于生成UART 波特率的普通 38.4kHz 频率之間会出现类似的同步问题因为实时时钟的 32,768 频率使 15 位寄存器每秒溢出一次,所以非常适合时间保持(time-keeping) 应用。比较而言,在UART 中使用相同的频率,则在典型的 10 位(起始位、8 位数据和 1 个奇偶校验位)传输中保证至少有一位读取不正确这是由于 32,768Hz 时钟必须除以 3.4,才能得到 9,600 波特率。由于没有 3.4 这一选择,洇此必须选择除以 3 或除以 4(参见图2) 图 2:9600 波特传输时 32Khz 驱动 UART Rx 错误 UART 数据用 10,922 波特或 8,192 波特的 UART 接收。由于 UART 在传输中间点对数据进行采样以补偿抖动,因此該点已经被选择为接收 UART 的采样点在没有行抖动的理想情况下,10,922 波特 UART 对第三数据位的开始两次读数都会是错误的而8,192 波特的UART 由于会完全遗漏第彡位,很快就将出错。由于低功耗应用的理想时钟是低功耗实时时钟模式,这使得在低功耗环境中处理很困难解决这一问题的最好办法就是將 μC 与调制技术结合使用,用 32kHz 振荡器提供非常精确的 2,400 波特,并完全能支持9,600 波特(参见图 3)。 图 3:在 9600 波特传输时采用时钟调制的 32Khz 驱动 UART 通过混合两个时鍾除数解决错误,总体积累的错误消失,数据接收正确这种方法对于9,600 波特或以下的 UART 通信很有效。对于高速通信,几个 μC 监视 UART Rx 行的边缘跃迁并触發 ISR 启动内部高速振荡器,驱动 CPU 并处理中断这使 μC UART 能够接收高速数据,而不必在 UART 空闲期间保持一个启动的高速时钟。如果使用外部振荡器或内蔀振荡器频率太低,则由于启动高速振荡器需要一定的时间,第一次传输将失效为克服这一限制和效率损失,设计人员应该考虑使用能够唤醒並及时从 32kHz 或停机模式激活的处理器,从正在传输的 UART 恢复首次传输的数据。例如,系统时钟需要在 25μs 内启动,才能拾取起始位的中间点,从而正确接收 19,200 位的传输 许多低功耗应用通过 UART 将 μC 连接到 RS-485 传感器网络。支持寻址和多处理器(9 位)模式的 UART 非常适合于这种网络当第 9 位为 1(代表是一个地址)時,这些 UART 会生成一个 ISR,让处理器能够在其它传感器通过系统发送数据时保持休眠状态。某些 μC 会更进一步,在 UART 中加入地址匹配,仅在第 9 位是 1 且地址與在剩余 8 位中收到的数据匹配时才唤醒系统 模拟器件 模拟器件模拟器件是最早的操作器件。模拟器件已经发展数十年,它是稳定电源、为高速晶体电路提供过滤和稳定性的必要器件,对监控来自自然界的输入信号也必不可少 模拟器件模拟器件是最早的操作器件。模拟器件已經发展数十年,它是稳定电源、为高速晶体电路提供过滤和稳定性的必要器件,对监控来自自然界的输入信号也必不可少 在待机模式下,模拟器件实际上不消耗功率。模拟-数字转换器 (ADC) 断电快,在待机模式下,甚至可以被视为一种低功耗应用 一旦加电,缺点即暴露无遗。一般来说,模拟器件在工作时需要的电流很大例如,ADC 工作时需要的电流达数百微安。另外,模拟器件(例如内部基准时钟)会使启动时间增加几毫秒,因为稳定模擬器件需要相对较大的外部电容另一种经常被集成的器件-集成温度传感器-通常是随温度改变的二极管电路,也需要相当大的电流。 在低功耗应用中有几个需要考虑的标准如果 ADC 有内部振荡器,就没有必要对其它系统振荡器加电来进行转换。在这种情况下,处理器保持断电状态,只囿转换完成时起,才需要开始工作像 CPU 一样,我们可以通过缩短执行时间来降低功耗。ADC 转换的速度越快,器件进入待机模式的速度越快对于内蔀基准时钟也是这样。基准时钟启动和稳定得越快,转换完成和模拟系统断电的速度也越快如果只是偶尔使用 ADC,某些处理器允许采样时钟断電,让跟踪电路保持加电。这样 ADC 就能够进入较浅的休眠模式这种功能的负面影响是,在进行转换前,需要花较长时间来让采样和保持电路达到穩定。 转换完成之后,有几个 μC 集成了直接内存访问 (DMA) 或先入先出 (FIFO) 缓冲存储器,能够将多个转换存储在RAM 中,而无需唤醒处理器在一定数量的转换箌达之前,处理器会保持待机状态,而不是在每个转换后唤醒处理器来将数据移入 RAM,这样就可以降低功耗。 许多低功耗 μC 内置内部模拟比较器,可鉯执行简单的模拟任务有些制造商的比较器允许编程,可以通过延长响应时间降低功耗。 起始点 总之,μC 外围设备的选择是由终端应用最终決定的,因此我们应从全面评估系统功能及其功率要求着手许多处理器制造商宣称其器件具备低功耗工作能力,但是不同的应用对“低功耗”一词有不同的定义。是需要大量集成的速度更高的处理器,还是需要具有极深度睡眠模式的速度更低的处理器,更多地取决于内嵌系统的要求,而不是内嵌处理器所谓的“低功耗”工作能力

  • 0 引言 太阳能的绿色与可再生特性, 使其在低碳和能源紧缺的今日备受关注锂电池因比能量高、自放电低的特性, 逐渐取代铅酸电池成为主流由目前常用的太阳能电池的输出特性可知, 太阳能电池在一定的光照度和温度下 既非恒流源, 亦非恒压源 其最大功率受负载影响。而锂电池可看作一个小负载电压源如不加控制直接将二者连接, 则将太阳能电池嘚工作电压箝位于锂电池工作电压 无法高效利用能源。 本文采用SPCE061 单片机 利用MPPT 技术使太阳能电池工作于最大功率点, 并且对锂电池的充電过程进行控制 延长锂电池使用寿命, 保证充电安全 1 最大功率点跟踪技术原理( Maximum Power Point Tracking 简称MPPT) 太阳能电池有着非线性的光伏特性, 所以即使在同┅光照强度下 由于负载的不同也会输出不同的功率。 其电压、电流与功率在光照度1 kW/ m2 , T = 25 ℃条件下的输出曲线如图1 所示其短路电流isc 与开路电壓uoc 由生产商给出, Pmpp为该条件下的最大功率点 由于太阳能电池受到光强、光线入射角度、温度等多种因素的影响, 最大功率相应改变 对應最大功率点的输出电压、输出电流和内阻也在不停变化。因此 需要使用基于PWM 的可调DC/ DC 变换器, 使负载相应改变 才能使太阳能电池工作茬最大功率点上。     图1 太阳能电池的典型输出曲线 2 电路工作原理 图2 示出太阳能充电器的原理框图其中微控制器采用凌阳公司生产的SPCE061A 单片机, 该单片机含有7 个10 位ADC( 模-数转换器) 并内置了PWM 功能 大大简化电路复杂程度, 提高稳定性电压采样电路与电流采样电路通过ADC   图3 BUCK 变换器电路 图4 為电流采样电路。Rsense 用一小阻值精密电阻作为采样电阻 通过将电阻两端电压使用差分放大器输送到SPCE061 的A/ D 端进行采样。为使采样精确 避免电源线与地线干扰, 使用线性光耦HCNR200 进行隔离     因此, 关于P/ D 的曲线为凸函数 且当P 取最大值时有唯一D 值与之对应。 由于DC/ DC 变换器连接至锂电池两端的输出电压短时间内变化不大 在短时间可认为恒定。因此 该设计的最大功率点跟踪可简化为通过PWM 调整电流至最大值, 即认为太阳能電池的输出功率达到最大 由锂电池充电特性可知, 为保证充电安全高效 需采用预充、恒流、涓流的三段式充电。系统通过对锂电池两端电压进行检测 判断充电状态, 进而采取相应的充电策略 当光照强度降低, 程序判断太阳能电池产生的功率小于系统自身开销时 进叺休眠模式。 4 实验结果与结论 根据以上原理及其电路图所述 所制作的MPPT太阳能充电器与用二极管搭建的传统太阳能充电器测试数据对比如表1 所示。其中太阳能电池采用华微公司生产的单晶太阳能电池板 其最大输出功率15 W,开路电压17. 4 V; 锂电池组采用4 串联18650 型锂电池, 充电截止电压16. 8 V, 电池组容量10. 4 Ah 表1 传统充电器与MPPT充电器实验数据对比     实验结果表明, 传统充电器的太阳能电池利用率约为66 %, 而本方案的MPPT 充电器利用率约为97 %, 输出功率有明显的上升通过SPCE061 单片机实现的带有MPPT 功能的太阳能充电器不仅大幅提高了太阳能电池利用率, 并包含了三段式充电的智能充电策略 茬软件模块中加入了防止过充电的安全策略, 并且在光照强度大幅下降到低于系统开销的情况下自动实现系统休眠通过改进算法, 设置哽为精确的参数 可以使充电效率进一步提高。

  • 0 引言 计量检定仪器主要用来检定和标定日常科学研究和工业生产中所使用仪器的传感器是否符合使用标准从本质上来讲,计量检定仪器是精度和分辨率都要高于日常所使用仪器的标准仪器目前,承担大量工业企业和部分科研院所计量检定工作的省级的计量检定部门使用的铂电阻检定和校准装置的准确度约为0.1 度分辨率为0.01 度。随着部分企业的产品研发或科学研究过程中对温度测量的要求越来越高目前的检定装置的测量精度已经不能满足要求,而且检定设备结构庞大、复杂,难以作为可传遞的计量检定装置来为用户提供上门的高精度测温或检定服务为了满足科学研究和工业生产对温度测量精度提高以及对铂电阻计量检定溫度计小型化、易传递的需求,本文提出一种基于TI 公司ADS1247 芯片的铂电阻温度计的设计方案 1 将铂电阻随温度变化而变化的电阻值转换为电压信号的方式通常有两种:电桥法和恒流源法。由于电桥法存在不可避免的非线性且需要多个电阻进行匹配,所以会在测量中引入系统误差而恒流源法具有结构简单、线性度好的特点,但是由于所采用恒流源输出电流波动,会在测量过程中引入随机误差通常采用在测量通路中串联一个标准电阻的比例测量形式来消除恒流源的波动。如果恒流源的输出是稳定的那么就可以不用串联标准电阻,直接测量鉑电阻的电压降来进行温度测量 ADS1247 是TI 公司推出的一种高性能、高精度24 位模拟数字转换器。ADS1247 单片集成一个低噪声可编程增益放大器、一个精密(ΔΣ)ADC 与一个单周期低通数字滤波器和一个内部时钟内置10mA 低漂移电源参考和两个可编程电流型数字模拟转换器(DAC)。通过程序设置在输出電压裕度内,DACS 可为外部提供多种强度的恒定电流电流强度可被设置为50uA 、100 中,使用匹配电阻的目的是使恒流源工作在最佳的线性区对ADS124 的配置和测试数据的读取由单片机通过SPI 总线进行。 2 实施方法及实验 当ADS1247 的采用内部参考电压数据采样率为5SPS,PGA 放大倍数为128 倍时,其内部的噪声电壓峰峰值可低于0.05uA .Pt100 在-30-300 ℃ 范围内的阻值变化范围是88.22-212.05 欧姆所以,为了达到最低噪声的条件应配置ADS1247,使其输出的恒定电流为100uA .为了使恒流源输出的恒流具有较高的稳定性和线性度,其引脚的输出电压范围应在3.5-4V 的范围内所以,要为pt100 串联一个阻值为37.4K 欧姆的电阻ADS1247 采用内部参考电压,模擬供电电压(AVDD)和数字供电电压(DVDD)均为5V,两者之间以0 欧姆电阻分隔所有与模拟地(AGND)连接的引脚均采用单端接地,模拟地与数字地(DVDD)之间也采用0 欧姆电阻隔离 单片机接收到键盘输入的测量指令后,启动ADS1247,并对ADS1247 进行配置单片机延时100ms 后,开始发起一次测量采集30 个数据,根据Pt100 的分度表以烸一摄氏度所对应的电压范围为一个插值区间,在该范围内以万分之一摄氏度为递进单位进行线性插值将插值后得到的温度数据按采集嘚时间先后顺序,分成3 个组每组10 个数据。根据(1)式计算每组内各温度数据的方差和。     方差反映了数据波动的程度在三组数据中,选择方差和最小的一组数据也就是测量值波动量最小的一组作为有效测试数据。进而选择该组数据内方差最小的测试数据作为最终的测量徝。 系统整机尺寸可控制在80×80 毫米以内以±15V 的直流稳压电源供电,在测温精度为0.01 ℃、分辨率为0.001 ℃的低温和恒温油槽内进行测试实验在-30-300℃范围内进行100 个温度点的测试,通过分析测试数据最大误差不超过0.05℃,测试分辨率最大为0.004℃ 3 结论 ADS1247 片上集成的恒流源、可编程放大器(PGA)和24位的AD 转换器能够为基于铂电阻的温度测量提供优良的硬件支撑。依据方差最小原则处理温度数据能够进一步提高温度测量的精度所设计嘚铂电阻温度计体积小、精度高,方便传递

  • 在电力生产和电气测试工作中,经常需要测量工频电压和频率目前市面上工频电压表和频率表种类繁多,本设计与其相比具有电路简单、体积小、功耗低、性价比高等特点利用低价位具备AVR高档单片机性能的ATmega8单片机,设计工频電压和频率两用测量仪ATmega8单片机除了有A/D转换和定时计数器功能外,其内部的模拟比较器在测量频率电路中省了测量过零电路;I/O端口20mA驱动能力矗接驱动LED数码管省了驱动电路。使整个硬件电路非常简单 2.硬件设计 基于ATmega8单片机工频电压/频率仪设计硬件电路如图1所示。以单片机为核惢加上少量的外部元件构成。     图1中:T1是电源变压器和电压互感器两用器件(电压互感器有变比精度要求)提供测量仪运行电源,并兼做为被测输入源使用;AD1、C1是电源整流滤波电路元件;U1是三端稳压器件;C2、C6是+5V电源滤波电容;L1、C4、C5是测量电压用基准电压和模拟端电源解耦电路元件;DS是大呎寸低功耗LED数码管与Rd1-Rd8构成测量结果显示电路;D1、D2、R1是测量频率输入波形整形电路元件;R2、R3、R4、C3是测量电压取样输入电路元件;R6、R7、LED2、LED3是测量频率或电压状态指示电路元件;R8、LED1是电源指示电路元件;E1(8MHz)晶体和两个20p的电容组成单片机运行所必须的时钟(保证测量频率的精度)。S1是测量电压/频率選择开关 ATmega8单片机: ATmega8是ATMEL公司AVR系列单片机。 采用低功耗CMOS工艺生产的基于AVR RISC结构的8位单片机大多数指令执行时间为单个周期。 1)内有10位精度的逐佽逼近型ADC ADC与一个8通道的模拟多路复用器连接能对来自端口C的8路单端输入电压进行采样。单端电压输入以0V(GND)为基准ADC包括一个采样保持电路,以确保在转换过程中输入到ADC的电压保持恒定ADC由AVCC引脚单独提供电源。AVCC与VCC之间的偏差不能超过±0.3V.器件之内有标称值为2.56V和AVCC基准电压基准电壓可以通过在AREF引脚上加一个电容进行解耦,以更好地抑制噪声 2)16位定时器/计数器 16位的T/C可以实现精确的程序定时(事件管理)、波形产生和信号測量。其主要特点如下:真正的16位设计;2个独立的输出比较单元;双缓冲的输出比较寄存器;一个输入捕捉单元;输入捕捉噪声抑制器;比较匹配发苼时清除寄存器(自动重载);无干扰脉冲相位正确的PWM;可变的PWM周期;频率发生器;外部事件计数器。 3)片内模拟比较器 模拟比较器对正极AIN0的值与负极AIN1嘚值进行比较当AIN0上的电压比负极AIN1上的电压要高时,模拟比较器的输出ACO即置位比较器的输出可用来触发定时器/计数器1的输入捕捉功能。此外比较器还可触发自己专有的、独立的中断。 AVR单片机的系统内可编程特性无需购买昂贵的仿真器和编程器也可进行单片机嵌入式系統的设计和开发;同时也为单片机的初学者提供了非常方便和简捷的学习开发环境。而且在省电性能、稳定性、抗干扰性以及灵活性方面考慮得更加周全和完善 ATmega8单片机与其它单片机比较而言,简便易用、费用低相对进入AVR系列单片机开发的门槛也低,软件资源丰富程序容噫开发。由于Atmega8单片机是常用芯片本文对其特性、内部结构、引脚说明等不做介绍。 3.ATmega8程序的设计 程序主要由初始化程序、数据处理程序(包括各种计算子程序)、LED位显示程序(包括LED显示刷新和字形码查表)、中断处理程序等模块组成 主程序流程如图2所示。程序首先对系统初始化初始化程序流程为:设置堆栈地址--初始化定时器(含显示和测频率计数器)--A/D转换初始化--存储器及寄存器初始化。接下来进入主程序闭合循环体在循环体中不断检查电压/频率选择开关状态。如开关为合的状态程序检查A/D转换是否完成。并对A/D转换做相应操作如开关为断的状态,程序启动测量频率计数器工作并允许计数器中断产生。然后无论电压/频率选择开关状态都进入显示数据更新检查,并对LED显示做相应操莋程序最后对LED显示(4位轮流)进行刷新。完成后循环重新开始     3.2 中断程序 本主程设置2个中断源。分别是LED显示扫描定时中断和频率测量计数器Φ断为了保证频率测量精度,设置计数器中断优先级为最高LED显示扫描由定时器0产生中断后做显示扫描标志。频率测量计数器由模拟比較器产生中断后读取16位定时器计数值并保存(数据由主程序处理),并设置数据更新标志程序处理流程如图3所示。     4.结束语 基于ATmega8单片机工频電压/频率仪硬件电路简单、性能稳定可靠、经济适用能满足一般的测量精度要求。

  • 0 引言 随着生活水平的提高人们对生活的环境提出了哽高的要求,良好的温度控制对提高人民生活质量起着非常重要的作用 特别是北方,城镇居民冬季一般采取集中供暖采暖质量的好坏,直接关系到人们生产生活目前我国绝大数的地区采暖缺少有力的监控系统,无法完成按需采暖以及实现对温度数据的有效控制从而慥成了对供暖热能的浪费。随着人们节约能源意识的逐步增强迫切需要一种操作简单、节能环保和高效利用的智能热计量仪表温度控制系统。 1 系统总体设计 根据热量与流量、温度之间的关系: Q=CM(T1-T0)式中Q 为散热器的散热量( 单位:J) ;C 为水的比热4.2*103J/kg° C ;T1-T0 为散热器进出口的温差(° C);M 为流经散熱器的水的流量(L),也即质量(kg)大小据上式可知,只要能测出流量和温差就可计算出散热器的散热量大小。 温度传感器检测的信号传送到單片机同时将流量信息传输到单片机,用矩阵键盘完成对温度的设定单片机处理完数据后,发送命令到液晶显示器并控制电磁阀系統总体框架如图1 所示。     2 模块介绍 本设计主要有单片机、液晶显示、数字温度传感器、液体流量计、键盘、电磁阀等部分构成温度显示:單片机控制数字温度传感器(DS18B20),把温度信号通过单总线从数字温度传感器传递到单片机上 单片机数据处理之后,将当前温度信息发送到LCD(LCD12864) 进荇显示热量显示:流量计检测到的流量信息(脉冲信号)传输到单片机,单片机数据处理之后将当前热量信息发送到LCD(LCD12864) 进行显示。温度设定:本系统还可以通过按键来设置温度限定值单片机比较数字温度传感器的温度与设定的温度值,发出控制继电器动作的指令 2.1 DS18B20 原理介绍 DS18B20 嘚数字温度计提供9 至12 位摄氏温度测量,并具有报警功能与非易失性用户可编程上限和下限触发点 DS18B20 的通信通过1-Wire 总线,需要定义只有一个数據线(与地面)与中央微处理器的通信DS18B20 是“一线总线”接口的温度传感器,其内部使用了在板专利技术其传感器元件及转换电路集成在形洳一只三极管的集成电路内。由于一线总线具有独特因此一个微处理器可控制大面积分布的DS18B20. 公司高密度易失性存储器的技术制造,与工業用的80C51 产品指令和引脚功能完全兼容 程序存储器可以在片上Flash 对系统进行编程,亦适于常规编程器单芯片上,拥有灵活的8 位CPU 以及系统可編程的Flash,使得AT89S52 为许多的嵌入式控制系统提供非常灵活和有效的解决方案 3 主要模块电路的设计 3.1 温度信号采集电路设计 本系统为多点温度测试,DS18B20 采用外部供电方式理论上可以在一根数据总线上挂256 个DS18B20,但实践应用中发现,如果挂接25 个以上的DS18B20 仍旧有可能产生功耗问题另外单总线长喥也不宜超过80M,否则也会影响到数据的传输。在实际应用中还可以使用一个MOSFET 将I/O 口线直接和电源相连起到上拉的作用,如图2 所示     在对DS18B20 进行操作的整个工作过程中,主要包括三个关键过程:搜索 DS18B20 序列号子程序;启动在线 DS18B20 作温度转换子程序:读取在线DS18B20的温度值子程序 3.2 液晶显示电蕗设计 液晶显示模块 LCD12864 的显示分辨率为128×64, 内置8192 个16*16 点汉字和128 个16*8 点ASCII 字符集,具有4 位/8 位并行、2 线或3 线串行多种接口方式利用该模块灵活的接口方式和简单、方便的操作指令,可构成全中文人机交互图形界面另外低电压低功耗是其又一显着特点,由该模块构成的液晶显示方案与同類型的图形点阵液晶显示模块相比不论硬件电路结构或显示程序都要简洁得多,且该模块的价格也略低于相同点阵的图形液晶模块设計图见图3.[!--empirenews.page--]     4 系统的软件设计 主程序的功能是:开机以后,进行系统初始化操作主要是进行定时/ 计数器的初始化。温度采集程序将温度信号轉换成数字信号在输入到单片机的RAM 存储器中;换算成负责进行温度的标度换算后的十六进制换算成BCD 码,并存储到显示缓冲区以便显示子程序使用需显示时负责将缓冲区中的各路温度送到LCD 上显示出来。流量信号处理程序的作用是:通过设定定时器、计时器以及外部中断完荿对频率的测定,并转换成流量信息主程序流程图如图4 所示。     键盘子程序通过按键程序的编写可以完成对温度的设定,图5 为温度设定蔀分算法流程     5 总结 本方案中所设计的系统对多处技术和方法进行改进,用STC89C52 单片机作为控制核心实现了对整个系统的控制和操作。液体鋶量计部分采用涡轮传感器实现对液体流量的采集数字温度传感器采用DS18B20 实现对温度信号的采集,将数字温度信号传送到单片机并且可鉯通过矩阵键盘完成对温度的设定,单片机通过对比设定温度与实际温度发出命令控制继电器开或者关控制液体的流量,以达到控制室溫的目的从而证实了方案的实用性。

  • 1.引言 本设计待测的输入电压为8路电压范围为0~5V,使用目前广泛使用的AT89S52来做控制系统,用ADC0809来进行模拟电壓的采集及模数转换实现采集8路数据,并将结果在四位一体数码管上进行滚动显示或单独显示的功能测量的最小分辨率为0.019V. 2 硬件设计 2 . 1 系統构成 该系统主要包括几大模块:数据采集模块、A/D转换模块、控制模块、显示模块、按键模块等。采用AT89S52作为控制模块A/DC0 8 0 9作为A/D转换模块的核惢,ADC0809本身具有8路模拟量输入端口通过C、B、A,3位地址输入端,能从8路中选择一路进行转换如每隔一段时间依次轮流改变3位地址输入端的地址,就能依次对8路输入电压进行测量LED数码管的显示采用软件译码动态显示,通过按键模块的操作可以选择8路循环显示也可以选择某条單路显示。 2 . 2 数据采集电路 数据采集电路是系统的主要组成部分ADC0 8 09具有8路模拟量输入通道IN0~IN7,通过3位地址输入端C、B、A(引脚23~25)进行选择。引脚22为地址鎖存控制端ALE,当输入为高电平时C、B、A引脚输入的地址锁存于ADC0809内部锁存器中,经内部译码电路译码选中相应的模拟通道引脚6为启动转换控淛端START,当输入一个2 μ s宽的高电平脉冲时,就启动ADC0809开始对输入通道的模拟量进行转换引脚7为A/D转换器,当开始转换时EOC信号为低电平,经过一段时间转换结束,转换结束信号EOC输出高电平转换结果存放于ADC0809内部的输出数据寄存器中。引脚9脚为A/D转换数据输出允许控制端OE,当OE为高电平時存放于输出数据锁存器中的数据通过ADC0809的数据线D0~D7输出。引脚10为ADC0809的时钟信号输入端CLOCK.在连接时ADC0809的数据线D0~ D7与AT89S52的P1口相连接,ADC0809的地址引脚、地址鎖存端ALE、启动信号START、数据输出允许控制端OE分别与AT89S51的P3口相连接转换结束信号EOC与AT89S52的P3.2相连接。时钟信号输入端CLOCK信号由单片机的地址锁存信号ALE嘚到,采集电路如图1所示     图1 数据采集电路 3 软件设计 3 . 1 主程序 主程序包含初始化部分,调用A/D转换子程序和调用显示子程序如图2所示。     图2 主程序流程图 初始化部分包含存通道数据缓冲区初始化和显示缓冲区初始化另外,对于单路显示和循环显示系统设置了一个初始标志位。 初始化时标志位设置为0,默认为循环显示当它为1时,则单路显示标志位通过外部按键控制。 3 . 2 数据处理子程序 ADC0809转换之后输出的结果是8位②进制数由公式(1)可知,当ADC0809输出为()时输入电压值VI=5.00V;当ADC0809输出为()时,输入电压值为VI=0.00V;当ADC0809输出为()时输入电压值VI=2.50V.由于单片机进行数学运算时结果只取整数部分,因此当输出为()时计算出的电压值VI=2.00V,很不准确为了提高精确度,必须把小数部分保留具体方法是:如果小数点后保留两位,茬运算的时候分子乘以100,保留三位就乘以1000.本设计是在小数点后保留两位运算方式如公式(2)。 本设计是基于ADC0809设计的电压检测装置采用AT89S52单片机進行数据控制、处理,结构简单元件较少,成本较低软件采用C语言实现,程序简单可读写性强效率高。能够实现八路待测电压测量还能够自由选择要测量的通道,与传统的电路相比具有方便操作、处理速度快、稳定性高、性价比高的优点,具有一定的使用价值

  • 1 引 言 C8051F单片机作为新型SOC(System—on—chip)片上型混合信号单片机,在指令执行速度数字和模拟接口资源方面体现了很大的优势,在嵌入式设备智能控淛仪表,工业过程控制等领域得到了广泛的应用在开发初期,可以利用开发工具通过JTAG或者c2接口来刷新固件而在实际产品应用中遇到代碼升级的问题时,就会有诸多不便 IAP(In—Application Programming)技术指MCU可以在系统中获取新代码并对自己重新编程,即可用程序来改变程序IAP的实现非常灵活,通瑺可利用单片机的串口SPI,12C总线以及GSM等方式,通过专门设计的固件程序来编程内部存储器实现程序的升级。同时实现lAP应用的前提是单爿机内部的存储器为ISP(In—System Programming)在系统可编程 C8051F系列单片机都具有ISP FLASH,通过C单片机为例设计其lAP应用利用串口通信从PC端接收程序更新代码,可以通过現有的Internet或其它方式很方便地实现远程升级和维护 2 C单片机主要特点 C是美国Silicon Laboratories公司推出的混合信号SOC型单片机,CIP一51的CPU内核因此指令系统与MCS一51完铨兼容。除了具有标准8051的数字外设部件外片内还集成了数据采集和控制系统中常用的模拟接口资源和其他数字外设及功能部件。 C8051FD20主要特點有: C和两个UART串行接口;5)具有5个捕捉/比较模块的可编程计数器/定时器阵列(PCA);此外它片内集成温度传感器,具有精确的VDD监视器和欠压检测器 3 IAP應用系统设计 3.1 IAP硬件系统框架 全文PDF下载: 基于C8051F单片机的IAP系统设计与实现.zip

  • 现代渔业主要利用探鱼器来探测水下鱼类资源的分布,提高捕鱼业的產量探鱼器利用的就是超声波探测的原理,由超声波探头根据需求发射出相应频率的超声波超声波在遇到水中不同障碍物后反射回来,被探头接收根据对反射数据的分析,最终得到该水域的信息随着探鱼器的发展,为了探测更多更详细的水域信息大角度多频率探測为了发展的趋势。所以增加超声波探测角度一般有两种方式单探头的机械回扫探测和多个探头探测。由于单探头的机械回扫电路设计複杂且探测间隔受到机械回扫速度的限制,所以一般采用多探头的方式传统多探头接收电路由多个独立的单探头接收电路组成,且只能接收一种频率的超声波硬件体积庞大,成本高昂且效率低下本文以三个双频探头为例子,设计了一种新的多探头双频超声波接收电蕗 2.整体电路概述 本设计采用了三个双频超声波探头分时切换接收的新方法,接收电路主要由前级放大电路开关切换电路,带通滤波电蕗和后级放大电路四个部分组成信号经过独立的前级放大电路初步放大信号后,由模拟开关组成的开关切换电路切换至所需的带通滤波電路进行滤波放大最后再经后级放大电路放大,转化为DSPIC芯片的AD模块适合的电压范围     3.具体电路设计 前级放大电路的功能是隔离和初步放夶。由于超声波探头工作在收发一体的方式所以接收电路首先要经过一个隔离电路。如图1所示我们采用两个反向并联的1N4148二极管D1、D2接地達到隔离目的。当发射的时候高压脉冲信号将直接通过二极管对地放电,二极管等效为短路不会烧坏接收电路。当探头接收的时候微小的信号无法使二极管导通,相当与断路微小信号由后续接收电路放大接收。 放大部分采用9013三极管搭建的共发射极放大电路R3、R5为负反馈电阻,起到稳定BJT的偏置点的作用放大电路增益为:     令β=120,算得到gm约为0.03.此时根据公式1可计算信号增益Av约等于61.6. 3.2 开关切换电路 开关切换电路甴4066模拟开关组成,由DSPIC芯片引脚控制开关的开合在发射电路发射超声波脉冲后,电路进入接收模式 芯片控制模拟开关选定将要接收的是彡个探头中的哪个,且接收的超声波频率为多少然后开始接收。 模拟开关切换接收这一创新方式使得多个超声波探头共享一套后级放夶电路,由于后级出放大电路的硬件成本较高该方式大大节约了电路成本。路径切换原理如图2所示:     值得注意的是模拟开关切换后需偠一段时间电路才能重新稳定,所以在这段时间内不适合接收信号根据实际测量,本接收电路在开关切换后需要10毫秒才能重新稳定 3.3 带通滤波电路 带通滤波电路是由运放构成的有源带通滤波器两级级联而成,单级且中心频率为76KHz的电路及其响应曲线如图3所示:   考虑到电阻和電容的取值不能是任意值而应该是常用的值,所以设计出来的滤波器的中心频率跟预期的中心频率存在一定误差根据公式2计算,当R0=R1取10K,R2取87K,C1=C2取100p的时候电压最大增益为4.35,中心频率约为76.3KHz,带宽为36.6KHz.当R0=R1取3.3K,R2取38K,C1=C2取100p的时候,电压最大增益为5.76,中心频率约为201KHz,带宽为83.8KHz.由于两个中心频率的绝对误差均遠小于各自带宽所以认为上述电路参数取值是合理的。两级级联后中心频率不变电压增益为单级的平方。 由于超声波接收信号的变化幅度很大从几个微伏到几个豪伏,为了充分利用芯片AD的电压范围创新设计了以对数放大器和运放组成的后级放大电路,如图4所示当輸入信号弱时,它相当于一个线性放大器增益较大。当输入信号较强时它变成对数放大器,增益随输入信号的增加而减小对数放大器保证了超声波接收电路有很宽的动态范围。经过AD8310对数放大器原先的高频信号转变为低频的原信号包络。     经过对数放大器的信号输入给哃相输入组态的运算放大器进行最后信号幅度调整。改变反馈电阻的阻值可以改变该放大电路的增益,具体要求是最终输出到AD引脚的信号的最大幅度值应该略小于芯片AD的范围由于DSPIC芯片的AD范围为0-3.3V,在这里我们调整反馈电阻,使最终信号的最大幅度约为3V. 4.电路验证 电路的实测輸出波形如图5所示在电路接收到微弱的反射信号的时候,超声波探头产生几个微伏的电压经本电路放大接收后,输出电压幅度约为3V,略尛于3.3V的AD范围满足预先的设计要求。     5.结束语 本方案中创新设计了一种多探头双频超声波接收电路经实验验证,能够成功控制三个双频超聲波探头正常工作该电路成本低,简单高效并具有良好的扩展性,为多探头多频率的超声波应用提供了一种新的可行方案

  • 随着科技嘚不断进步,在多数领域中有线连接的方式已经不能满足科技高速发展的要求无线通信正进入到我们生活中的各个领域,它与有线连接方式相比具有携带方便、使用灵活、不必考虑走线等优点。在无线报警、工业数据采集、遥控、遥测射频IC卡、手持PDA、无线图像传输、不停车收费、无线抄表等各个方面有着极其广泛的应用本文所介绍的测温系统也是无线通讯系统的应用之一。它以SOC单片机C为中央控制器鉯CC1000为无线传送模块和温度测量电路构成了多路无线温度采集系统。 将8路的温度数据进行采集通过无线方式送给主机C进行处理。 调制解调甴CC1000完成系统采用频移键控调制(FSK),载波频率为433MHz,带宽64kHz,数据采用差分曼彻斯特编码发送空中发送数据速率可以根据需要设置。在发送时控制器C单片机从用户接口接收采集命令进行8路温度信号的采集,并将采集到的温度数据进行打包转换成数据帧传送给CC1000,控制CC1000进行数据发送 在接收时,控制器C接收从CC1000传送过来的温度数据进行简单处理后把这些数据传送给上位机进行详细的分析处理。硬件框图如图1和图2所示         2.系統硬件设计 2.1 无线收发模块 本设计的无线收发模块采用了ChipconComponent公司的高性能RF收发芯片CC1000,它是一种单片高频无线收发IC,电流损耗低,通信速率可调最高可达72.8kbit/s,接收灵敏度为-109dB.m,发射信号功率在-20~10dB.m内可调,设计时电路简单所用的外围器件较少,编码简单改变电路和器件参数可以使其工作的频率范围在300~1000MHz内变化。同时该器件内部集成了发射功率放大器、FSK调制/解调、低噪声接收放大器、混频器、压控振荡器、鉴相器等电路是一款集成度极高的芯片,可直接与单片机进行通信该IC极适合嵌入到各种低功耗要求较高的测量或控制系统中,我们在该系统中选则433MHz的频段CC1000內部结构图如图3所示。 C8051Fxxx是Cygnal公司推出的一系列8位高速片上系统(SOC)单片机C是其中的一款,它的CIP-51与MCS-51指令集完全兼容具有以下优点:(1)速度高,最夶处理速度可达25MIPS;完全满足本设计中的实时性要求(2)集成度高,片内集成了极其丰富的模拟及数字外设:两个多通道模/数转换系统包括一個8位ADC和一个12位ADC,以及两个可编程增益放大器和两个模拟多路选择器;两个12位数/模转换系统;两个模拟比较器:一个片内温度传感器;丰富的总线接ロ包括SMBus总线接口、通用异步串行总线接口UART、SPI总线接口;5个16位通用定时器;8个8位I/O端口;一个64K的FLASH和一个256B的内部RAM一个4096B外部RAM(XRAM);以及看门狗2能嘿嘿吗电路等;这些片内资源大大减化了本设计的硬件电路设计,极大的缩短了开发周期(3)交叉开关使I/O端口分配更加灵活。 基于C的片内资源可以完全满足對多点的温度数据进行实时采集及处理。C对CC1000的控制电路如图4所示     如图4微控制器C使用P3.0、P3.1、P3.2与CC1000的PDATA(编程数据)、PCLK(编程时钟)、PALE(编程允许)连接对CC1000进行編程配置和校准,使其工作在433MHz,带宽64kHz,数据采用差分曼彻斯特编码发送单片机C的P0.2、P0.3与CC1000的DIO和DCLK连接进行数据的发送与接收,单片机将采集到的温喥数据进行打包经P0.2引脚送给CC1000的DIO引脚DIO引脚输入的数字信号被频移键控(FSK)后送到功率放大器,再通过CC1000的天线发射出去;CC1000天线接收到的射频信号经低噪声放大器(LNA)放大后送给混频器再由解调器(DEMCO)解调成数字信号由DIO脚输出,单片机的P0.2引脚将DIO引脚的数字信号接收后传送给上位机进行分析处悝 测温放大电路如图5所示,测温部分由8路K型热电偶进行使温度信号转成电压信号,热电偶的变化范围是40.7uV/C,由于热电偶的变化范围很小洇此要进行放大,放大电路采用集成运放LM224构成同向比例运算电路进行放大将采集到的模拟量Vi经放大器LM224放大Vo=(1+605/4.99)*Vi,8路放大后的模拟信号Vo接SOC单片机C嘚8路12位A/D的模拟输入端AIN0.0~AIN0.7进行模/数转换,然后换算成温度值储存并等待无线发送[!--empirenews.page--]     3.系统软件设计 本设计使用的软件是Kei C51,使用的语言是C语言和汇编語言,为了得到精确延时所以延时子程序采用汇编语言编写。以下主要介绍一下无线通信部分 3.1 通信协议的设计合理的通信协议是可靠嘚进行无线数据传输的关键,对于点对多点的无线通信本设计所采用的协议具有代表性。由于在发射端与接收端进行无线通信时极易被外界噪声干扰而产生错误数据或数据丢失,因此本设计将要发送的数据进行打包再发送数据的组织格式如图6所示。     数据包格式OxAA OxAA 0xAA 0xAA 0x330xCC地址 数據…数据 检验和其中4个0xAA是同步头0×33 0xCC是特殊标识,由于噪声中OxAA后面紧跟0×33 0xCC的机率极小所以发送4个OxAA后发送0×33 0xCC作为标识头每次只接收以4个OxAA 0×33 0xCC莋为标识头的数据,然后发送地址每个从机都有唯一的地址,从机接收时只接收和自己地址相同的包最后采用校验和的方式来保证数據的可靠性。 3.2 主程序的设计流程 通信由上位机发起当需要通信时,上位机首先发送同步头然后发送地址其后等待下位机应答。而下位機使用中断的方式与上位机进行通信即下位机每收到一个数据包检侧是否有同步头信息,如果没有同步头信息无线通信模块转入休眠狀态;反之,下位机接收上位机信息:如果接收到的地址为本机地址则对数据进行分析处理,否则转人休眠这种通信方式虽然速度较慢,但是却使得下位机的功耗大大降低延长了下位机电池的寿命。程序流程图见图7所示     CC1000对硬件和软件的要求都很高,要获得良好无线通信效果需注意以下几点: (1)电源滤波要好单片机C和CC1000用两路电源供电,电源芯片用LDO的TPS7133Q芯片以防串扰和确保输出电压的稳定性 (2)PCB布局时将将射頻和低频元件分开布,与CC1000相关的电容和电感紧密地布在CC1000的周围以增加CC1000的接地面积和通信可靠性。 (3)模式转换的延时一定要足够 4.结束语 本方案采用C单片机和无线收发芯片CC1000实现了8路温度数据的采集与无线传输,从实验结果可看出该系统很好的满足了无线测温系统的要求并有效的降低了系统的功耗和体积。

  • 数码管静态显示系统需要占用过多的单片机口线但是可以保证正常的亮度。为了解决占用口线较多而浪費硬件资源等问题研究人员开发了一系列诸如74HC595的数码管驱动芯片,该类芯片可以实现串行转并行的工作方式驱动数码管实现静态和动態显示。但是这样一种工作方式暴露出控制系统实时性不足等问题,在某些对系统响应时间要求比较高的场合的应用产生了一定的限制为了解决上述几个弊端,本文提出了一种基于单片机的数码管动态显示器的设计方案以IAP15F2K61S2系列单片机做控制核心,并采用全新的软硬件電路实现数码管的动态显示 2.控制系统硬件设计 2.1 显示器外观设计 本显示器采用六个共阳极的数码管,按照通常的做法六个数码管水平排列在产品的最上方,如图1所示这样的设计可以方便的将控制系统的控制状态显示出来。下方采用的是40管脚DIP封装的单片机所有并行口线嘟安排了插针,可以方便的实现系统的外部扩展增强本显示器的可移植性。     采用透明的亚克力材料制作显示器的外壳可以很好的进行鈳见光线传播,同时可以坚固的固定电路板。 2.2 显示器控制核心的选择IAP15F2K61S2单片机是宏晶科技有限公司(STC)于2013年所推出的最新款的1T单片机是常规51單片机的加强版。该系列单片机的运行速度要比普通51单片机快7-12倍可以较大幅度的提高单片机控制系统的响应速度,降低系统的响应时间 IAP15F2K61S2单片机集成了丰富的实用功能部件,简化了常规单片机最小系统的硬件构成省去了外部复位电路和时钟电路等部分,优化了管脚配置配置了五个8位(P0,P1,P2,P3,P4)和一个2位(P5)通用并行I/O口线。 本显示器配置IAP15F2K61S2单片机的P2口的低六位作为数码管的选择控制信号P0口作为数码管的显示段码传送数據总线。 2.3 显示器控制电路设计 本显示器的控制电路包括电源模块、驱动模块、显示模块、程序下载模块等模块产品电路原理图如图2所示。     显示器的电源模块采用两种供电方式 第一种方式是通过USB转串行口的下载器给显示器供电,第二种方式是通过5V直流电源适配器供电另外还可以方便的改装成220V交流电供电,下载器的供电电源来自计算机的USB口能够提供给控制系统的电流太小,影响了数码管的正常显示亮度而采用220V交流电供电方式还需要添加过多的电源处理电路,选用第二种方式5V直流电源适配器给本显示器供电既便于给产品供电,也可以提供充足的电流 驱动模块保证了共阳极数码管的正常显示,由于单片机的管脚输出电流是有限的因此,P2口对共阳极数码管公共端的控淛需要添加三极管进行驱动本显示器选用NPN型三极管9013实现对数码管公共端的控制。 将六个数码管水平排成一行公共端通过三极管进行控淛,而数据段与单片机的口线直接相连构成了本显示器的显示模块 IAP15F2K61S2系列单片机程序的下载可以通过其自带的全双工异步串行口(UART)所配置的兩条管脚RXD(P3.0)和TXD(P3.1)实现,这种程序下载方式需要的硬件条件非常简单下载软件的操作方式非常的便捷,受到众多单片机系统研发人员的青睐夲显示器正是采用了这样的程序下载方式。[!--empirenews.page--] 3.显示器控制系统软件设计 3.1 显示信息处理 动态显示器是一种通过异步显示方式控制数码管显示位置和对应显示字符的高效显示器当需要在显示器上显示某些信息时,必须先取得该信息对应的段码作为待显示数据存入相应的数组在發送显示段码之前需要将对应数码管的共阳极公共端置为高电平,之后再通过P0口向该数码管发送显示代码该代码所需显示的信息将会显礻在显示器上。 显示缓冲数组信息的排列方式与本产品的硬件以及显示函数的功能恰好相符,以备方便的实现数据显示 3.2 系统软件设计 夲产品采用六个共阳极数码管制作了本显示器。设计共阳极数码管显示代码表如下:     为了充分发挥C语言的模块化编程优势将动态显示子函数封装为一个通用的模块,程序如下:     当需要显示器工作的时候主程序只需将显示缓冲区的首个信息单元的地址通过子函数的形式参數传递到子函数的内部,通过子函数的处理依次将显示缓冲区的数据全部显示出来。 本显示器的显示效果如图3所示     4.总结 本方案中所设計的数码管动态显示器,在保证了数码管正常工作以及节省口线的前提下大幅提高了系统的实时性能,加快了系统的响应素服功耗更低,结构新颖成本低廉。

  • LCD不须外挂限流电阻或三极管大幅简化产品应用零件及降低成本,非常适合于俱备LED / LCD之小家电触控面板应用BS82C16A-3同時也支持I2C / UART界面,可当主控IC亦可搭配主控MCU专门负责触控按键的侦测或LED / LCD的显示 BS82C16A-3的特点在于工规 (-40℃ ~ 85℃)、工作电压2.7V ~ 5.5V、具有4K Words程序内存、SRAM为512 Bytes、内建RTC功能、触摸按键与I/O功能复用、支持I2C / UART传输界面,并内建高精准度RC振荡器LVR固定为2.55V,适合应用于含有LED / LCD 面板之触控小家电产品例如电冰箱、电饭煲、电磁炉、电茶炉、抽油烟机、微波炉等。在产品开发阶段还提供了e-Link搭配专用的OCDS (On Chip Debug

  • 随着单片机在国防、金融、工业控制等重要领域应用越來越广泛单片机应用系统的可靠性越来越成为人们关注的一个重要课题。单片机应用系统的可靠性是由多种因素决定的大体分为硬件系统可靠性设计和软件系统可靠性设计。 一、硬件系统可靠性设计 (1)选优设计 在系统硬件设计和加工时应该选用质量好的接插件,设计好笁艺结构;选用合格的元器件进行严格的测试、筛选和老化;设计时技术参数(如负载)要留有一定的余量或降额使用元器件;提高印制板和组装嘚质量。 (2)冗余与容错设计 保证单片机应用系统100%无故障是不可能的容错是指当系统的某个部件发生故障时,系统仍能完全正常地工作即給系统增加容忍故障的能力。为使系统具有容错能力必须在系统中增加适当的冗余单元,以保证当某个部件发生故障时能由冗余部件接替其工作原部件修复后再恢复出错前的状态。硬件冗余设计可以在元件级、子系统或系统级上进行例如,在系统级上采用双机系统兩套系统互为备用。 (3)采用硬件抗干扰措施 来自供电系统以及通过导线传输、电磁耦合等产生的电磁干扰信号是单片机系统工作不稳定的偅要因素,在系统硬件设计时必须采取有效的干扰抑制措施单片机应用系统中还常使用系统监视电路检测系统发生的错误或故障,自动報警或使系统自动恢复正常工作状态如采用电源故障监视、看门狗2能嘿嘿吗定时器等采用89C51单片机和X25045组成的看门狗2能嘿嘿吗电路,X25045硬件连接图如图所示X25045芯片内包含有一个看门狗2能嘿嘿吗定时器,可通过软件预置系统的监控时间在看门狗2能嘿嘿吗定时器预置的时间内若没囿总线活动,则X25045将从RESET输出一个高电平信号经过微分电路C2、R3输出一个正脉冲,使CPU复位如图1所示电路中,CPU的复位信号共有3个:上电复位(C1、R2)人工复位(S、R1、R2)和Watchdog复位(C2、R3),通过或门综合后加到RESET端C2、R3的时间常数不必太大,有数百微秒即可因为这时CPU的振荡器已经在工作。 看门狗2能嘿嘿吗电路的定时时间长短可由具体应用程序的循环周期决定通常比系统正常工作时最大循环周期的时间略长即可。编程时可在软件嘚合适地方加一条喂狗指令,使看门狗2能嘿嘿吗的定时时间永远达不到预置时间系统就不会复位而正常工作。当系统跑飞用软件陷阱等别的方法无法捕捉回程序时,则看门狗2能嘿嘿吗定时时间很快增长到预置时间迫使系统复位。需要注意的是在程序正常运行的时候,应该在适当的地方加一条喂狗指令使系统正常运行时的定时时间达不到预置时间。系统就不会复位 单片机应用系统的软件和硬件是緊密相关的。要使整个系统具有较高的可靠性除了在尽可能提高硬件可靠性的前提下,软件的可靠性设计也是必不可少的必须从设计、测试及长期使用等方面来解决软件可靠性。单片机系统的抗干扰能力是系统可靠性的重要指标由于51单片机的指令系统是复杂指令集结構,致使其抗干扰性能较低尤其用在工业控制的场合,如果不增加额外的抗干扰措施甚至无法正常工作。单片机软件抗干扰设计的主偠目的就是及时发现“跑飞”的程序并及时地将程序拉入正常轨道,主要方法有:指令冗余、软件“陷阱”、软件“看门狗2能嘿嘿吗”等等 CPU取指令过程是先取操作码,再取操作数在程序的关键地方人为的插入一些单字节指令,或将有效单字节指令重写称为指令冗余通常是在双字节指令和三字节指令后插入两个字节以上的NOP指令。这样即使跑飞程序飞到双字节指令和三字节指令操作数上由于窄操作指囹NOP的存在,避免了后面的指令被错误地执行为程序纳入正轨做好准备。此外对系统流向起重要作用的指令,如RET、RETI、LCALI.、LJMP,JC等可以在这些指令之后插入两条NOP指令,可将跑飞程序纳入正轨以确保这些重要指令的执行。指令冗余只能使CPU不再将操作数当作操作码错误地执行却鈈能主动地将程序的错误执行方向扭转过来,要想纠止程序的错误执行方向就需要下面的技术。 (2)设计软件“陷阱” 通常在程序存储器中未使用的EPROM空间填入窄操作指令NOP,最后再填入一条跳转指令跳转到跑飞处理程序,或者直接填入指令LJMP 0000H,当跑飞程序落到此区域即可在执行一段空操作后转入正轨。如果未使用的EPROM空间比较大可以均匀地填入几条空操作指令和跳转指令,这种几条空操作指令加一条跳转指令的结構我们称之为“软件陷阱”. FLY为跑飞处理子程序如果程序正常执行,软件陷阱部分是永远也执行不到的只有在程序跑飞到陷阱里,软件陷阱会立刻将程序跳转到正常轨道即使程序没有跑飞到陷阱里,也可以在程序执行一段错误操作后遇到一个软件陷阱从而转入正轨。除了程序存储器的空白区域程序的数据表结尾也应该设置软件陷阱,如果数据表比较大应该在数据表的中间也设置软件陷阱,以保证程序跑飞到数据区能及时转入正轨另外,如果程序存储器的空间足够大的话可以在每两个子程序中间设 置一个软件陷阱。当使用的中斷因干扰而开放时在对应的中断服务程序中设置软件陷阱,能及时捕获错误的中断软件陷阱的数量要根据实际受到干扰的情况和程序存储器的容量来确定,如果太少不能进行有效的跑飞拦截如果太多又会占用大量的程序存储器空间。 (3)软件“看门狗2能嘿嘿吗”技术 跑飞嘚程序在执行一些错误操作之后 经常会进入“死循环”,也就足常说的“死机”.通常采用“软件看门狗2能嘿嘿吗”技术使程序脱离“死循環”,软件“看门狗2能嘿嘿吗”技术的原理是通过不断检测程序循环运行时间,若发现程序循环时间超过最大循环运行时间则认为系统陷叺“死循环”,需要进行出错处理。在实际应用中通常用定时中断服务程序定时地检查主程序的运行情况。例如在RAM区选择一个字节作为軟件看门狗2能嘿嘿吗寄存器,主程序每循环一次将该寄存器加l,定时器TO的中断服务程序每中断一次将该寄存器减l并检查一次如果程序执行囸常。看门狗2能嘿嘿吗寄存器不会改变或改变不大如果看门狗2能嘿嘿吗寄存器发生了改变或改变很大,则说明系统陷入“死循环”.需要進行出错处理在工业应用中,严重的干扰有时会破坏中断方式控制字关闭中断,造成看门狗2能嘿嘿吗失效这时可以采用环形中断监視系统。用定时器TO监视定时器Tl,用定时器Tl监视丰程序主程序监视定时器T0. 采用这种环形结构的软件“看门狗2能嘿嘿吗”具有良好的抗干扰性能,大大提高了系统可靠性对于需经常使用Tl定时器进行串口通讯的测控系统,则定时器Tl不能进行中断可改由串口中断进行监控。当然对主程序最大循环周期、定时器T0和Tl定时周期应于全盘合理考虑。软件“看门狗2能嘿嘿吗”技术需要使用定时器而在大多数的控制程序Φ,定时器都是紧俏的资源这就使“软件看门狗2能嘿嘿吗”技术的实际应用受到了限制,我们可以采取一些技巧性的处理将软件“看門狗2能嘿嘿吗”程序与其它定时程序复用同一个定时器,这样既完成定时功能又完成软件“看门狗2能嘿嘿吗”的功能 (4)检查RAM区标志数据及時发现严重干扰 这种方法是在RAM区中选择几个固定单元,在初始化程序中将其设置成固定的数据只要程序正常运行,这些单元的内容是不會改变的如果因为程序“跑飞”或其它干扰导致这些RAM单元中的任何单元的数据发生了变化,说明单片机系统已经受到了严重的干扰不能可靠地运行下去了。我们可以在程序执行的过程中适时地检查这些RAM单元的内容一旦发现有数据改变,立刻执行LJMP 0000 H语句强制单片机复位。 (5)刷新输出端口 排除严重干扰当单片机系统受到严重干扰时,输出端口的状态也可能因干扰而改变在程序的执行过程中适时地根据相關程序模块的运算结果刷新输出端口,可以排除干扰对输出端口状态的影响使错误的输出状态及时得到纠正。 (6)进行多次输入采样 避免严偅干扰强烈的干扰会影响单片机的输入信号,造成输入信号瞬间采样的误差或误读要避免干扰的影响,通常采取重复采样加权平均嘚方法。 三、结束语 单片机系统运行的可靠性会不确定因素的干扰提高单片机应用系统的可靠性要从软硬件入手。提高系统的自身防御荇为以上所提到几种提高可靠性的方法,都不是单独使用的只有根据实际情况将这些方法有效地结合起来,才能达到最佳抗干扰效果使我们的单片机系统稳定可靠地工作。

  • 0引言 数字技术的发展速度让人惊叹它已渗透到广播电视的每个角落,然而对于一部电子钟则昰播出部门一直不可缺少的。我们结合工作环境应用先进的电子器件,如: 1.单片机采用抗干扰极强的AT89C52. 2.时钟芯片选用X1228,因为X1228的主要特点是内蔀有6个模拟微调位用来调整X1和X2引脚间的片内负载电容有效负载电容范围从5pf至19.75pf.对电容调整每位有不同的权重,这将允许使用6pf或12.5pf的晶体这樣使内部时钟更加精准。 3.利用GSU-36A3(GPS)接收模块中的高精度UTC(世界时)自行设计研发了这款走时精确的电子钟显示有两种方式:(1)为LED数码显示,其驱动芯片有8个驱动器每个驱动器输出最大电流50mA.(2)LCD液晶显示。 一、捕获高质量GPS信息 GPS-2000型数字报时钟应用的是GSU-36A3(GPS)接收模块它具有18个混合通道接收系统,系统输出为串行输出电平为RS-232接口电平。GSU-36A3的天线部分是有源天线它不支持无源天线,所以对天线的长度要求非常严格天线为50欧铜轴電缆,在GPS传感器中我们只是利用了此系统中的5个GPS传感器 (1)GPS定位数据传感器(GPGGA) 用此传感器接收GPS的质量指示,当接收数据为0时此系统校正实时時钟系统无效。 (2)GPS卫星信号传感器(GPGSU) 当前视野范围内的可能收到的卫星总数当收到4颗以下GPS卫星时,此系统校正实时时钟系统无效 (3)GPS睡眠工作模式设定信息传感器(PKODG) 当接收到无线状态断线时=1,短路时=2,对实时时钟系统校正无效。 (4)经度/纬度传感器(GPGLL) 当东经一有变化时此系统校正实时时钟無效。 (5)GPS时间和日期传感器(GPZDA) 当前4个传感器工作正常时可利用此传感器接收到的时间对实时时钟系统进行校正。电路图如图1所示     二、GPS-2000型数芓报时钟的抗干扰设计 我们知道绝大多数的干扰来自共地部分,为了使本系统中的单片机部分安全可靠地执行命令:(1)电源部分我们采用了5S5-200(DC-DC)電源隔离模块(2)应用MAX813芯片增加了看门狗2能嘿嘿吗电路。(3)输入输出数据部分也必须进行隔离我们采用高速光偶6N137做为隔离器件,这里有5条数據输出线1条串口输入线,还有4条输出控制线对以上这10条线都进行了隔离。 三、报时电路的设计 1.时钟芯片X1228使用一个外部的32.768KHZ石英晶体来保歭精确的年、月、日、星期、时、分、秒实时时钟具有闰年校正和世纪字节,时钟对少于31日的月也能校正 2 .利用1 4位二进制串行计数器/分頻器CD4060(内部带有振荡器)组成振荡频率为3.2768MHZ,通过分频后分出1600HZ,再通过7位二进制串行计数器分频CD4024得到800HZ,此二个频率通过CD4066四双向模拟开关在中央处理器的控制下通过放大电路、阻抗匹配电路,最后平衡输出OdB信号 四、显示电路的设计 因为GPS中没有星期,那么我们在送显示时分两部分: (1)我们采取了年、月、日、星期的数据为x1228内部数据; (2)时、分、秒采用GPS数据当收不到GPS信息时再发送x1228内部时、分、秒数据。数码驱动芯片使用6B595,液晶显示使用16×2显示模块 五、接口电路的设计 GPS输出是串行输出,但它并非是TTL电平而是RS-232电平,RS-232电平传输不能超过20米左右所以当长距离传输时必須用RS-485接口电路进行传输。RS-485具有多点双向通信能力收发器采用平衡发送,差分接收通信距离为几十米到上千米,数字信号的传输随着距離的增加和信号传输速率的提高在传输线上的反射、串扰、衰减和共地噪声等影响将引起信号的畸变,从而限制了通信距离普通的TTL电蕗由于驱动能力差,输入电阻小灵敏度不高以及抗干扰能力差,因而信号传输的距离短RS-232接口电路,其驱动器输出信号摆幅比TTL电平大得哆使抗干扰能力大大提高,但RS-232标准规定驱动器允许有2500PF的电容负载通信距离将受此电容的限制,例如:采用150PF/m的通信电缆时最大的距离為15m,RS-232传输距离短的另一个原因是RS-232属于单端信号传输,存在共地噪声和不能抑制共模干扰GPS-2000型数字报时钟有10路报时信号输出端,1路RS-485信号输入端囷18路RS-485信号输出端其输出端是给子钟提供GPS信号和校正微机,或微机网络时钟使时钟显示和微机自动播出达到完全同步。

  • 0 引言 目前检测心率的仪器虽然很多但是能实现精确测量、数据上传PC机并且具有声光报警等多种功能的便携式全数字心率测量装置很少。本文介绍的数字囚体心率检测仪可以在人体的手、腕、臂等部位均能准确测量出心跳次数同时还具有掉电存储、测量数据上传PC机及声光报警等多项功能。 1 系统组成及工作原理 系统组成如图1所示本设计以单片机为主控信号,外辅少量硬件电路完成数据处理、记忆、显示、通信等功能。     艏先在系统开机时通过键盘设定系统的工作方式,然后将压电陶瓷片检测到人体心跳信号经过放大、滤波及整形处理后输入给单片机,单片机对测量的数据进行处理送显示电路显示     ,同时通过通信电路将测量数据上传PC机记忆电路主要用来存储测量数据,实现掉电存儲功能声光报警电路在测量数据超过正常范围(如大于180次/min或小于45次/min)时进行报警以提醒医生注意。 2 系统硬件电路设计 2.1 传感器及信号处理电路 傳感器及信号处理电路如图2所示     检测心率脉冲信号的传感器采用压电陶瓷(在压电陶瓷片上安装一海面垫以传递脉冲信号);将采集到的心率信号经过由CD4069的3个非门组成3级放大电路进行放大,然后通过由R4、R5、C5及R7、R8、C6构成的2级梯形滤波电路进行滤波处理即可获得人体心率范围的信號(约在0.66Hz-3.33Hz之间);再通过由二极管D1、D2和R6构成的检测电路以及由U1F、U1D、U1E这3个非门构成的整形电路处理后,就可得到单片机所需要的标准的0-5V脉冲信号 2.2 鍵盘电路 键盘电路如图3所示。     因为I/O够用所以4个按键分别接到单片机的P1.2、P1.3、P1.4、P1.5上,采用查询方式进行工作K1、K2、K3及K4依次分别完成开始测量、查询、存测量结构及清除记忆数据等操作。 2.3 显示电路 显示电路如图4所示采用动态显示方式,图中2片74LS373的数据输入端均接在89C51单片机的P0口上单片机通过P1.0和P1.3给2片74LS373提供片选信号,从而实现分时选择2片74LS373工作分别传送段码和位码。图中6个数码管前3个用来显示被测人的序号,后3个鼡来显示每分钟心跳次数;ULN2803是8反相驱动器作为位增强驱动器。   记忆存储电路见图5存储芯片采用AT24C02。SDA为串行数据输入/输出引脚SCL为串行同步時钟输入端;A0、A1及A2是片选信号输入端,TEST引脚是写保护接地时表示不保护,测量完心率数据后想要保存时就按一下存储按键K3单片机就通过P2.1給AT24C02提供合适的时钟,然后将数据存入指定地址当然,控制字、地址和数据是分3次输入的并且在每段之间要求AT24C02提供给单片机一个应答信號,此外在读写数据前后要加开始和停止位。[!--empirenews.page--]   2.5 通信电路 通信电路的功能是将单片机测量的心率数据上传PC机本电路采用一片MAX232芯片将TTL电平轉换成PC机所能识别的电平,再通过一个标准的9针接口与PC机连接外围电路丰富简单,只需要5个0.1μF的电容器具体电路如图6所示。 &n     bsp;   2.6 声光报警電路 声光报警电路见图7由与非门74F00构成2级门控振荡器。其中U6A和U6B组成低频振荡器,振荡频率约1HzR5为下拉电阻,常态下使Uc=0V仅当测量数据在報警范围内时由单片机的P1.6提供一个高电平电路才起振,B0端交替输出的高、低电平经Q1使发光二极管闪烁发光,U6C和U6D组成音频振荡器振荡频率约1KHz,仅当B0=1时第2级振荡器才起振通过达林顿管Q2、输出变压器T驱动扬声器BL发出断续的"嘀、嘀……"报警声。     3 软件的设计 系统主程序流程图如圖8所示     主要有显示驱动程序、按键处理程序、INT0中断服务程序、AT24C02驱动存储程序、串口通信程序等。 4 结束语 通过实际设计制作并与市场现囿心率检测仪相对比,结果表明本设计具有体积小、重量轻、成本低、使用方便、测量准确等优点有较好的应用前景。

  • 在钢厂电厂等的笁业冷却水系统中需要快速准确地测定及调节水处理剂的浓度,因此我们设计了一款基于HT46R24单片机的在线荧光水质监测仪     本仪器是采用波长为540nm的LED灯照射流经分析池的冷却循环水,激发其中的荧光示踪剂发射出波长为575nm的荧光信号该荧光和激发光一块通过聚焦透镜到达575nm窄带濾光片之后,理论上激发光将被滤除只有荧光信号透过滤光片到达硅光电转换二极管实际上仍然有一小部分激发光及其它背景光透过滤咣片被硅光电二极管检测到,构成一个较为固定的误差采用两点定标测量法可以消除激发光造成的误差,此外本设计还采用了1.1kHz的脉冲激發光源用于消除其它背景光造成的误差未知溶液的溶度与其荧光信号强度数值的关系式如下。     C上:定标上限浓度;C下:定标下限浓度;N上:所测上标液数值;N下:所测下标液数值;C:待测浓度;N:所测待测液数值 本仪器的硬件电路主要由包括电源模块、荧光信号检测模块和基于HT46R24的主控制板模块。以下主要介绍核心的荧光检测电路 荧光检测板电路如图所示,硅光电二极管将接受到的荧光信号转换成微弱的电流信号该电流信 号经过一个由CA3140运放构成的积分放大电路进行前置放大,该放大器的RC取值使其频率带宽达4.976kHz远大于1.1kHz的荧光信号带宽。放大了的荧咣信号经过C4电容之后其中的直流噪声干扰信号将被滤除,波形整体下移然后再由AD706放大器进行检波,只保留正向电平由截止频率为6Hz的②阶有源积分低通滤波器进一步滤除高频段的噪声后,荧光信号由1.1kHz交变信号变为直流信号该信号经过AD650的V/F转换器后变成相应频率值的脉冲信号。 主控制板部分主要由HT46R24单片机、时钟芯片BL5732、串行EPROM AT24C256(用于存储字库及系统固定参数)、RS232电平转换芯片MAX232、大功率NMOS管IRF630(用于驱动加料泵和三通电磁閥)、LM555构成的1.1kHz的多谐振荡器(用于驱动LED激发光源)以及薄膜按键和液晶模块AM128128的驱动接口电路等构成。 主函数主要完成的是单片机系统初始化、LCD顯示、键盘扫描及按键响应定时检测样品浓度送到LCD上显示并且通过串口发送给计算机,控制加料泵的开启和关闭等

  • 0、TPS61040和TPS54331等器件和加速喥传感器,实现了超低功耗高精度角度测量仪的制作首先,我们使用MSP430单片机此单片机不仅具有处理能力强、运算速度快、片内资源丰富等优点,而且具有超低功耗和间歇工作的优势其在工作时工作电流只有200uA左右,当处于休眠状态时其工作电流在1uA左右较好的满足了超低功耗和控制运算的需求。在实际使用中我们让它工作在2.5V,省电模式下RAM数据保持在低功耗模式,消耗电流仅0.1μA. 其次 设计中还使用了T I 公司嘚芯片TPS61070和TPS61040组成两级BOOST升压电路,相对于反激式升压电路相比该方案不但效率高,而且有利于降低电源损耗 在选择降压电路方案中,使用叻TI公司的TPS54331芯片组成BUCK降压电路当25V将至2.5V时普通的线性降压芯片效率只有10%,但是这块芯片在轻载情况下效率也可达到30%以上,而且功耗低此次设計中,主要使用TI的芯片性能很好,对制作的实现起到了促进作用 2.方案设计与论证 本设计要求通过测量重力加速度进行角度测量,并保證精度达到±1度以内用2200uF电容供电,在工作情况下能持续工作60秒以上并用1.5V干电池给电容充电。 2.1 控制系统的比较与选择 方案一:采用DSP,具有高精度运算速度快的优点,但DSP功耗高不满足本设计低功耗要求。 方案二:采用ATML的12C5A16AD,这款单片机价格便宜但是运算速度比较慢,功耗大不符合本设计的要求。 方案三:采用TI公司的MSP430单片机为控制系统此单片机不仅具有运算速度快的特点而且具有间歇工作的优势。在工作時其电流在200uA左右当处于休眠状态时其电流在1uA左右,较好的满足了超低功耗的要求和控制运算需求 综上论证选取方案三。 2.2 测角传感器比較与选择 方案一:MMA7455,它是10位精度三轴数字加速度传感器具有I2C,SPI通信接口,但是测量结果偏差较大需要校正。 方案二:MMA8452加速度传感器此传感器是一款智能、低功耗、三轴、电容式微机加速度传感器,具有体积小重量轻和丰富嵌入式的特点,可以减少整体功耗有利于实现系统的超低功耗运行。此传感器具有12位高精度偏差小,不需要校正的优点而且能够返回数字信号,有利于信号采集与功能实现 综上論证选取方案二。 2.3 供电降压电路选择 方案一:用7805组成线性降压电路 选用7 8 0 5虽然能将电压降到要求值,但是7805的工作原理就是将额外的压降加在了芯片上,当电压由25V降到5V时7805会严重发热,功耗很大在超低功耗下很难工作。 方案二:用TPS54331芯片构成开关型BUCK降压电路TI的TPS54331芯片集成了MOSFET與控制系统的功能,可以实现25v到3.3v的稳压用此芯片实现的开关型BUCK降压电路功能,比功耗小效率也高。 综上论证选择方案二 2.4 充电升压电蕗选择 方案一:用反激击式升压电路,此电路虽然实现输入输出隔离但是此方案工作效率低,功耗大不利于1.5v蓄电池长期使用。且反激式电路需绕制高频变压器占用空间较大,不利于使用 方案二:用TI公司的芯片TPS61070和TPS61040组成两级boost升压电路,相对反激式升压电路相比该方案效率高,易于低功耗设计的实现 综上论证选择方案二。 2.5 系统总体结构设计 通过以上方案选取我们的系统总体结构为通过boost升压电路将1.5V电壓升到充电电压25V给电容充电。用充好电的电容通过BUCK电路降压对测量仪进行供电通过测试按键发出信号后测量仪进行测量后显示。系统设計框图如图1.     3.理论分析和计算 3.1 倾角的计算方法 低功耗单片机控制通过MMA8452加速度传感器将加速度在X、Y、Z轴上(芯片坐标轴如图2)的分量通过I2C通信传箌单片机里,根据几何关系进行角度计算后由HT1621驱动的4位LCD角度显示显示分辨率为0.1度,精度达±1V,测角范围为0-90度     从倾角传感器输出到单片机嘚是重力加速度的XYZ轴分量,通过以下公式计算出:设X轴与水平面仰角α度,将坐标系投影到XZ平面可得一平面坐标系,由此可求得各轴上嘚静态加速度值:     3.2 理论功耗分析 3.2.1 单片机功耗 MSP430此单片机不仅具有运算速度快的特点而且具有间歇工作的优势在工作时其电流在200uA左右,当处於休眠状态时其电流在1uA左右较好的满足了超低功耗的要求和控制运算需求。 我们选用的MSP430单片机在典型的200KHZ时钟、2.5V电压下工作时仅消耗2.5μA,茬1MHZ时钟、2.5V电压下工作时有250μA,在RAM数据保持在低功耗模式下消耗电流仅0.1μA.它具有5种工作模式,不同模式下消耗在0.1~400μA间待机模式下消耗仅0.8μA.将CPU置为省电模式,可以大大减小能耗 3.2.2 显示器功耗

  • 使用计算机分析患者器官的CT图像研究人员能够预测他们的5年死亡率,准确率高达70%这是发表在《科学报告》杂志上的一项最新研究成果。 该研究报告的作者澳大利亚阿得雷德大学公共卫生学院的Luke Oakden Rayner博士及其同事相信,他们的研究结果能够推动精准医学领域向前发展 美国国家卫生研究院(NIH)将精准医学定义為“一种将每个人的基因、环境与生活方式等个体差异考虑在内的疾病预防与治疗的新兴方法”。 正如该研究作者所指出的精准医学有賴于生物标志物的发现,它是疾病风险、治疗反应或疾病预后的精确指标他们认为放射学在这一领域起着重要作用。 在他们的研究中Oakden Rayner博士及其同事开始探讨他们是否能教会计算机“学习”来自计算机断层扫描(CT)的相关信息,用来预测患者的5年死亡率 首先,研究小组收集叻七种不同组织的15,000幅CT图像——包括心肺组织这些图像均来自60岁及以上的患者。使用Logistic回归技术研究人员确定了一些与5年死亡率相关的图潒特征。 然后研究团队将数据与“深度学习”技术结合起来。Oakden Rayner博士解释说这是一种计算机可以“学习如何理解与分析图像”的方法。 怹补充道:“自动化系统并不专注于诊断疾病而是以一种医生没有被训练过的方式,即通过将大量数据合并和检出细微模式来预测临床預后” 接下来,研究人员用计算机对48名60岁以上患者的胸部CT图像进行分析他们发现,与医疗保健专业人员做出的死亡率预测相比计算機预测他们5年死亡率的准确率高达69%。 与此同时研究人员说道,他们的研究可以证明CT图像和计算机学习可能会导致精准医学的重大进展。

  • 最近终于有充足的时间来学习计算机组成原理与单片机原理 简单的说说自己对这两门课程的感受 1. 首先说计算机的两大分支:通用型计算機单片机。是两个不同的发展方向 我们知道计算机有五大部件组成,即 运算器 控制器 存储器 输入设备 输入设备 单片机是集成在一个IC芯爿上的IC芯片上集成了运算器 控制器 以及IO接口,相当与一个计算机系统了而通用计算机是分模块的,比如内存条CPU,显卡这些设备是通过系统总线连接成一个计算机系统。所以可以看出单片机是微计算机系统,正是因为小巧价格也便宜,很适合应用于嵌入式系统當然单片机的功能就没有通用型计算机的功能那么强大了。 2. 再说一下计算机组成原理计算机组成原理是介绍计算机的基本原理,不涉及具体机型比如说intel 8086,不以具体机型进行介绍与讲解而微机原理与接口技术这门课程,是以8086为讲解对象的当然介绍计算机原理的时候也鈳以以某一具体机型为例进行介绍,但是如果太针对某一机型就无法体现计算机的原理的基础性了。 3. 单片机原理我看过的一些单片机原理书籍,都是以MCS-51单片机讲解的因为51内核的单片机是非常简单易学的,而且用途十分广泛arm也是单片机的一种,是一种32的微控制器而51單片机是8位的微控制器。 4. 计算机组成原理 汇编语言 微机原理与接口技术 计算机体系结构这是计算机科学与技术专业的专业课当然学习时,如果能把这几门课程都学一边对计算机的理解更深,因为单独的一门课程讲的内容有限 5. 不得不说,当今的课程真是一般般一般般昰真的不适合一个人自学。一路艰辛啊以后就要学一些工业控制方面的内容了,PLC ARM希望我的研究生生活能有一个圆满的结果。

  • 5月3日世堺第一台超越早期经典计算机的基于单光子的量子模拟机问世,这台量子计算机由中国科学技术大学潘建伟、陆朝阳、朱晓波浙江大学迋浩华教授研究组联合研制。     其实这并不是中国第一次公开在量子计算方面取得的成绩在2016年,央视新闻报道:中国量子计算机取得突破性进展中国科技大学量子实验室成功研发了半导体量子芯片和量子存储。在上个月中国科学院院长白春礼院士透露,中科院正在研制Φ国首台量子计算机预计在最近几年内有望研制成功。 那么量子计算到底什么?相对于现在使用的经典计算机又有什么优势呢?本次发布嘚量子模拟机性能究竟怎么样呢? 经典计算机发展遭遇瓶颈 在过去几十年中,由于计算机技术飞速发展芯片的集成度和制造工艺突飞猛进。但随着制造工艺的进步晶体管栅长不断变小的同时,也带来了副作用——那就是会使电子移动的距离缩短容易导致晶体管内部电子洎发通过晶体管通道的硅底板进行的从负极流向正极的运动,为了解决这个问题国外巨头开发出SOI技术和鳍式场效电晶体技术,通过在源極和漏极埋下一层强电介质膜或者增加绝缘层的表面积来增加电容值,防止发生电子跃迁这使得摩尔定律得以延续。 但随着制造工艺發展到7nm如果要进一步缩短晶体硅的栅长,又会发生隧穿效应粒子迅速穿越势垒——在势垒一边平动的粒子,当动能小于势垒高度时按照经典力学,粒子是不可能越过势垒的;而对于微观粒子量子力学却证明它仍有一定的概率贯穿势垒。     打个比方就是只如果你面前有┅道10米高墙,按照经典力学如果找不到合适的工具,你就翻不过去但对于微观粒子来说,由微观粒子波动性可以直接穿墙而过。正昰由于隧穿效应使得摩尔定律在当下已然失效经典计算机发展陷入瓶颈。经典计算机发展中已经逐渐遭遇功耗墙、通信墙等一系列问题传统计算机的性能增长越来越困难。最典型的例子莫过于CPU巨头Intel在2013年之后,Intel的CPU性能增长比较有限因而被网友调侃是“牙膏厂”。在不玖前更是取消了有20年历史的英特尔开发者论坛这其中的原因之一就是撞上了性能天花板。 在经典计算机发展遭遇瓶颈的情况下探索全噺物理原理的高性能计算技术就成为必由之路。 量子计算的优势     量子计算机具有极大超越经典计算机的超并行计算能力例如,如果是求┅个300位数的质因数目前的超算估计用十几万年的时间来完成,而量子计算机原则上可以在很短的时间内完成因此,量子计算在核爆模擬、密码破译、材料和微纳制造等领域具有突出优势是新概念高性能计算领域公认的发展趋势。 中国科学院院长白春礼院士曾表示:使鼡亿亿次的天河二号超级计算机求解一个亿亿亿变量的方程组所需时间为100年。而使用一台万亿次的量子计算机求解同一个方程组仅需0.01秒。 本次发布的两台量子计算原型机性能到底咋样 以目前的情况看低温超导系统和量子点系统由于具有较好的可拓展性,公开的研究成果也比较多 就量子点系统而言,中国暂时领先西方国家在2016年,中国科技大学量子实验室成功研发了半导体量子芯片由砷化镓材料制造用量子点(用半导体工艺做出一个模拟原子能级的结构)实现量子比特,逻辑比特数量为3个半导体量子芯片精度达到90%,在量子纠错码的辅助下该量子芯片的精度也达到了满足容错计算的精度。相比之下国外目前还停留在四个量子点编码的两个比特,在该领域中国已经达箌国际领先水平 本次发布会上公开的是两个量子计算原型机,一种基于低温超导系统一种基于线性光学,两个量子计算原型机都有10个量子比特超过了美国航天航空局、加州大学圣芭芭拉分校、谷歌宣布实现的9个超导量子比特的高精度操作。 那么这两台量子计算原型機性能究竟怎么样呢?     这两台量子计算原型机虽然符合标准的量子计算概念,但都是专用机而非通用机——超导系统那一台原型机是用来莋线性方程组求解的;基于线性光学的原型机是用来做玻色取样的。 在性能上实验测试表明,该原型机的取样速度不仅比国际同行类似的實验加快至少24000倍同时,通过和经典算法比较也比人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍。     换言之就是這两台量子计算原型机只是在线性方程组求解和玻色取样任务时,与人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)相比较运行速度快10-100倍。 因此这两台量子计算原型机是专用机,而且对比的对象也是人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)从中可鉯看出,这两台量子计算原型机只是量子计算机发展历程中的一小步虽然在未来也许会有与ENIAC、TRADIC类似的历史地位,但无论从性能还是从通用性的角度上说,都不宜过度拔高这两台有10个量子比特原型机的先进性     同时,也不能因此就贬低这两台量子计算原型机毕竟不积跬步,无以至千里不积小流,无以成江海只要不断取得技术突破,夯实技术储备就有可能制造出具有超越“神威太湖之光”计算能力嘚量子计算机。 需要说明的是相对于两个量子计算原型机实现了10个量子比特的成绩,中国科研团队的量子操作水平格外出色——这种量孓计算专用机运行一次就相当于做一次超高难度的物理实验。能够制造并使用这种量子计算专用机需要非常高的操作水平 因而中国发表两台有10个量子比特原型机,折射出在量子操作水平上中国科研团队已经处于暂时领先地位。而且潘建伟研究团队还计划在2017年年底实现夶约20个光量子比特的操作 一、量子计算靠的是“叠加”和“纠缠” 量子计算是一种基于量子效应的新型计算方式,它通过大量量子位的受控演化来完成计算任务     量子计算机原理 所谓的量子位是一个具有两个量子态的物理系统,一般在量子信息学中量子是最小的不可分割的能量单位,基本单位就是量子位或者叫做量子比特。而量子态呢就是电子做稳恒的运动,具有完全确定的能量 量子叠加     1个量子位同时有0和1两个状态,相应的N个量子位可同时存储2的N次方个数据所以,量子计算机操作一次的效果就等于同于普通电子计算机进行2的N次方次操作的效果再直白点,就是量子计算能一次完成2的N次方个数据的并行处理这样计算速度完全秒杀传统计算机。 量子纠缠 还有一个洺词你要了解——量子纠缠处于纠缠态的两个粒子有一个奇妙特性,一旦对其中一个粒子进行测量确定了它的状态那么就立即知道另┅个粒子所处的状态。即使相距遥远距离一个粒子的行为将会影响另一个的状态,爱因斯坦把这称之为“鬼魅似的远距作用” 因此,當量子系统的状态变化时纠缠态的粒子状态都可以发生变化。量子计算就是利用了量子叠加和量子纠缠的特点实现了高超的并行计算能仂       超导量子计算机 高性能计算领域的“小公举” 举个例子,“天河二号”超级计算机要是求解一个亿亿亿变量的方程组要耗上100年。而使用一台万亿次的量子计算机求解同一个方程组仅需0.01秒。 如果是求一个300位数的质因数目前的超算估计用十几万年的时间来完成,而量孓计算机原则上可以在很短的时间内完成因此,量子计算在核爆模拟、密码破译、材料和微纳制造等领域具有突出优势是新概念高性能计算领域公认的发展趋势。 计算能力超越早期经典计算机 想要判断量子计算到底牛不牛、牛在哪学术界有三个达成共识的指标性节点:计算能力超越早期经典计算机是第一步,再是超越商用CPU最后是超越超级计算机。 上述我们提到的这台光量子计算机已经比人类历史仩第一台电子管计算机和第一台晶体管计算机运行速度快10倍至100倍。 本次发布会上公开的两个量子计算原型机一种基于低温超导系统,一種基于线性光学超导系统那一台原型机是用来做线性方程组求解的,这台原型机实现了目前世界上最大数目——10个超导量子比特的纠缠并在超导量子处理器上实现了快速求解线性方程组的量子算法。     基于超导量子处理器的线性方程解法演示 基于线性光学的原型机是用来莋“玻色取样”的实验测试表明,该原型机的取样速度比国际同行类似的实验加快了至少24000倍 如果现在传统计算机的速度是自行车,量孓计算机的速度就好比飞机 10个量子比特的纠缠是个什么概念? 两个量子计算原型机都有10个量子比特的纠缠,这是一个什么概念?前面我们提箌量子计算需要利用大量互相纠缠的量子比特才能实现。而多粒子纠缠的操纵也一直是量子计算的技术制高点一直是国际角逐的焦点。 2015年谷歌、美国航天航空局和加州大学圣芭芭拉分校宣布实现了9个超导量子比特的高精度操纵。显然这个记录已经被中国科学家团队艏次打破。     十超导量子比特的纠缠态 这种量子计算专用机运行一次就相当于做一次超高难度的物理实验,能够制造并使用这种量子计算專用机需要非常高的操作水平中国的研究团队还计划在2017年年底实现大约20个光量子比特的操作。 三、量子计算机的“心脏”研制到底有多難? 正如在电子计算机中CPU扮演了关键的角色在量子计算机研制中,量子芯片同样是“心脏”至关重要。     量子计算机处理器 如果将来的量孓计算机要超越现有电子计算水平需要多于1000个量子比特构成的芯片。但这种规模的量子比特构成的芯片目前的技术还做不到 而且单纯囿数量足够多的量子比特还是不行的,因为量子比特并不稳定量子技术需要利用量子相干性才可以做计算,彼此有关的量子比特串列會作为一个整体动作,只要对一个量子比特进行处理影响就会立即传送到串列中多余的量子比特。但是每个量子比特都非常脆弱,很嫆易被环境干扰使量子的相干性丧失,而且干扰的速度随着体系的扩大而呈指数增加量子比特越多,干扰的速度也越快     中国科学院量子计算实验室 资料图 这时候就必须采用纠错码技术,鉴定噪声的可能状态在假定了噪声特性的基础上,构建纠错码系统构建纠错容錯的理论体系。比如通过纠错码过程对数个物理比特做冗余最后生成了一个逻辑比特,逻辑比特有很好的容错特性可以纠正干扰引起嘚所有错误。 如果能够达到容错预值在外界噪声低到一定水平,操作达到一定精度之时就可以满足容错计算。那这个精度要多高呢?以杜江峰院士研究组的研究成功为例在传统的纠错码下量子逻辑门精度达到了99.99%,其单比特门精度已经满足容错计算的需求 总而言之,要想研制超越现有电子计算机的量子计算机首先要有满足容错计算的需求的逻辑比特,然后进行系统扩展实现数十个、上百个逻辑比特,而且都达到满足容错计算的精度这样就可以得道性能出色的量子芯片,然后在结合控制系统、测量装置等硬件和编程、算法等软件制慥出量子计算机     四、其意义不亚于核武器 那么,量子计算机主要有哪些应用前景又和我们的生活有什么相关呢? 包括量子计算机在内的量子技术在军事应用方面有着无与伦比的广阔前景,量子隐形通信系统将建立在各类作战指挥控制体系之间和各种侦察预警系统、主要作戰平台以及空间武器系统之中从而构建出量子信息化战场的通信网络,以其超大信道容量、超高通信速率等特性在未来的信息化战争Φ扮演无可替代的角色。甚至有人认为量子计算的意义不亚于核武器…… 在医学检测、药物设计、基因分析、各种导航等方面它也将起箌巨大的作用,会给我们的生活带来极大的改变比如天气预测,量子计算机可以一次分析所有数据向我们提供更好的模型,精准地显礻恶劣天气会在何时何地出现就像这两天北京的沙尘暴,可以做到提前预防“我们现在的天气预报只能预报几天,因为如果要预报第陸天、第七天计算的时间可能需要100天,而100天后再来预测第六七天的天气就没什么意义了”潘建伟说。 结语 “量子计算机是一项颠覆性嘚技术一旦成功研发,就可以破解现在所有的密码另外它还可以解决大数据等等问题。” 中国科学院院士、中国科学技术大学教授郭咣灿曾说   虽然,目前的技术成果距离真正建成性能优于传统经典计算机的标准量子计算机来说依旧有一定难度但在量子计算方面,中國的多项成果都已打破世界记录我们也期待超过经典电子计算机的标准量子计算机能够早日问世。

  • 什么是无线传感器? 无线传感器的组成模块封装在一个外壳内在工作时它将由电池或振动发电机提供电源,构成无线传感器网络节点由随机分布的集成有传感器、数据处理單元和通信模块的微型节点,通过自组织的方式构成网络 它可以采集设备的数字信号通过无线传感器网络传输到监控中心的无线网关,矗接送入计算机进行分析处理。如果需要无线传感器也可以实时传输采集的整个时间历程信号。     监控中心也可以通过网关把控制、参數设置等信息无线传输给节点数据调理采集处理模块把传感器输出的微弱信号经过放大,滤波等调理电路后送到模数转换器,转变为數字信号送到主处理器进行数字信号处理,计算出传感器的有效值位移值等。 无线传感器的工作原理: WSN一般都包括一台主机或者“网關”其通过一个无线电通信链路与大量无线传感器进行通信。数据收集工作在无线传感器节点完成被压缩后,直接传输给网关或者洳果有要求,也可以利用其他无线传感器节点来将数据传递给网关 之后,网关保证该数据是系统的输入数据     每个无线传感器都被看作┅个节点,拥有无线通信能力同时还具有一定的信号处理与网络数据的智能。 根据应用的类型每个节点都可以有一个指定的地址。下圖显示了某个节点的通用结构图它一般会包括一个传感装置、一个数据处理微控制器,以及一个无线连接RF模块根据不同的网络定义,RF模块可以起到一个简单发射器或者收发器(TX/RX)的作用 进行节点设计时,注意电流消耗和处理能力非常的重要微控制器的内存非常依赖于所使用的软件栈。 无线传感器的在哪些方面广泛应用: 传感器节点可以连续不断地进行数据采集、事件检测、事件标识、位置监测和节点控淛传感器节点的这些特性和无线连接方式使得无线传感器网络的应用前景非常广阔,能够广泛应用于环境监测和预报、健康护理、智能镓居、建筑物状态监控、复杂机械监控、城市交通、空间探索、大型车间和仓库管理以及机场、大型工业园区的安全监测等领域。随着無线传感器网络的深人研究和广泛应用无线传感器网络逐渐深入到人类生活的各个领域而受到业内人士的重视。 在环境监测和预报方面无线传感器网络可用于监视农作物灌溉情况、土壤空气情况、家畜和家禽的环境和迁移状况、无线土壤生态学、大面积的地表监测等,鈳用于行星探测、气象和地理研究、洪水监测等基于无线传感器网络,可以通过数种传感器来监测降雨量、河水水位和土壤水分并依此预测山洪爆发描述生态多样性,从而进行动物栖息地生态监测还可以通过跟踪鸟类、小型动物和昆虫进行种群复杂度的研究等。 随着囚们对环境的日益关注环境科学所涉及的范围越来越广泛。通过传统方式采集原始数据是一件困难的工作无线传感器网络为野外随机性的研究数据获取提供了方便,特别是如下几方面:将几百万个传感器散布于森林中能够为森林火灾地点的判定提供最快的信息;传感器網络能提供遭受化学污染的位置及测定化学污染源,不需要人工冒险进入受污染区;判定降雨情况为防洪抗旱提供准确信息;实时监测空气汙染、水污染以及土壤污染;监测海洋、大气和土壤的成分。 Crossbow的MEP系列就是其中之一这是一种小型的终端用户网络,主要用来进行环境参数嘚检测该系统包括了2个MEP410环境传感器节点,4个MEP510湿度/温度传感器温度压力传感器是由温度敏感元件和检测线路组成的。温度传感器从使用嘚角度大致可分为接触式和非接触式两大类前者是让温度传感器直接与待测物体接触,来敏感被测物体温度的变化而后者是使温度传感器与待测物体离开一定的距离,检测从待测物体放射出的红外线从而达到测温的目的。传统的热电偶、热电阻、热敏电阻及半导体温喥传感器都是将温度值经过一定的接口电路转换后输出模拟电压或电流信号利用这些电压或电流信号即可进行测量控制。而将模拟温度傳感器与数字转换接口电路集成在一起就成为具有数字输出能力的数字温度传感器。随着半导体技术的迅猛发展半导体温度传感器与楿应的转换电路、接口电路以及各种其它功能电路逐渐集成在一起,形成了功能强大、精确、价廉的数字温度传感器 在交通管理中的应鼡 在交通管理中利用安装在道路两侧的无线传感网络系统,可以实时监测路面状况、积水状况以及公路的噪音、粉尘、气体等参数达到噵路保护、环境保护和行人健康保护的目的。 1995年美国交通部提出了“国家智能交通系统项目规划”,预计到2025年全面投入使用这种新型系统将有效地使用传感器网络进行交通管理,不仅可以使汽车按照一定的速度行驶、前后车距自动地保持一定的距离而且还可以提供有關道路堵塞的最新消息,推荐最佳行车路线以及提醒驾驶员避免交通事故等 由于该系统将应用大量的传感器与各种车辆保持联系,人们鈳以利用计算机来监视每一辆汽车的运行状况如制动质量、发动机调速时间等。根据具体情况计算机可以自动进行调整,使车辆保持茬高效低耗的最佳运行状态并就潜在的故障发出警告,或直接与事故抢救中心取得联系目前在美国的宾西法尼亚州的匹兹堡市就已经建成有这样的交通信息系统,并且通过电台等媒体附带产生了一定商业价值   道路两侧的传感器结点可以实时监测道路破损、路面不平等凊况,在暴雨时可以监测路面积水情况并将这些数据通过无线传感网络实时的发送到相关部门,便于相关部门对道路进行检修或者发布噵路积水警报及进行险情排除等工作道路两侧的传感器结点还可以实时监测公路附近的环境状况,例如噪音、粉尘及有毒气体浓度等参數并通过无线传感网络系统将这些数据实时发送出去,便于有关部门对道路情况进行监测Senera的系统,可用于监测桥梁、高架桥、高速公蕗等道路环境对许多老旧的桥梁,桥墩长期受到水流的冲刷传感器能放置在桥墩底部用以感测桥墩结构;也可放置在桥梁两侧或底部,搜集桥梁的温度、湿度、震动幅度、桥墩被侵蚀程度等能减少断桥所造成生命财产的损失。在旧金山200个联网微尘已被部署在金门大桥,这些微尘用于确定大桥从一边到另一边的摆动距离——可以精确到在强风中为几英尺当微尘检测出移动距离时,它将把该信息通过微型计算机网络传递出去信息最后到达一台更强大的计算机进行数据分析,任何与当前天气情况不吻合的异常读数都可能预示着大桥存在咹全隐患系统将根据这一信息通知工程师对其进行修缮,以确保桥梁在遭受地震或其他自然灾害时仍保持完好无损 智能交通系统(ITS) 是在傳统的交通体系的基础上发展起来的新型交通系统,它将信息、通信、控制和计算机技术以及其他现代通信技术综合应用于交通领域并將“人-车-路-环境”有机地结合在一起。在现有的交通设施中增加一种无线传感器网络技术将能够从根本上缓解困扰现代交通的安全、通暢、节能和环保等问题,同时还可以提高交通工作效率因此,将无线传感器网络技术应用于智能交通系统已经成为近几年来的研究热点智能交通系统主要包括交通信息的采集、交通信息的传输、交通控制和诱导等几个方面。无线传感器网络可以为智能交通系统的信息采集和传输提供一种有效手段用来监测路面与路口各个方向上的车流量、车速等信息。它主要由信息采集输入、策略控制、输出执行、各孓系统间的数据传输与通信等子系统组成信息采集子系统主要通过传感器来采集车辆和路面信息,然后由策略控制子系统根据设定的目標并运用计算方法计算出最佳方案,同时输出控制信号给执行子系统以引导和控制车辆的通行,从而达到预设的目标无线传感器网絡在智能交通中还可以用于交通信息发布、电子收费、车速测定、停车管理、综合信息服务平台、智能公交与轨道交通、交通诱导系统和綜合信息平台等技术领域。 在医疗系统和健康护理中的应用 当前很多国家都面临着人口老龄化的问题我国老龄化速度更居全球之首。中國60岁以上的老年人已经达到1.6亿约占总人口的12%,80岁以上的老年人达1805万约占老年人口的总数11.29%。一对夫妇赡养四位老人、生育一个子女的家庭大量出现使赡养老人的压力进一步加大。“空巢老人”在各大城市平均比例已达30%以上个别大中城市甚至已超过50%。这对于中国传统的镓庭养老方式提出了严峻挑战 无线传感网技术通过连续监测提供丰富的背景资料并做预警响应,不仅有望解决这一问题还可大大提高医療的质量和效率无线传感网集合了微电子技术、嵌入式计算技术、现代网络及无线通信和分布式信息处理等技术,能够通过各类集成化嘚微型传感器协同完成对各种环境或监测对象的信息的实时监测、感知和采集是当前在国际上备受关注的,涉及多学科高度交叉、知识高度集成的前沿热点之一   近年来,无线传感器网络在医疗系统和健康护理方面已有很多应用例如,监测人体的各种生理数据跟踪和監控医院中医生和患者的行动,以及医院的药物管理等如果在住院病人身上安装特殊用途的传感器结点,例如心率和血压监测设备医苼就可以随时了解被监护病人的病情,在发现异常情况时能够迅速抢救罗切斯特大学的一项研究表明,这些计算机甚至可以用于医疗研究科学家使用无线传感器创建了一个 “智能医疗之家”,即一个5间房的公寓住宅在这里利用人类研究项目来测试概念和原型产品。“智能医疗之家”使用微尘来测量居住者的重要征兆(血压、脉搏和呼吸)、睡觉姿势以及每天24小时的活动状况所搜集的数据将被用于开展以後的医疗研究。通过在鞋、家具和家用电器等设备中嵌入网络传感器可以帮助老年人、重病患者以及残疾人的家庭生活。利用传感器网絡可高效传递必要的信息从而方便接受护理而且可以减轻护理人员的负担,提高护理质量利用传感器网络长时间的收集人的生理数据,可以加快研制新药品的过程而安装在被监测对象身上的微型传感器也不会给人的正常生活带来太多的不便。此外在药物管理等诸多方面,它也有新颖而独特的应用 在信息家电设备中的应用 无线传感器网络的逐渐普及,促进了信息家电、网络技术的快速发展家庭网絡的主要设备已由单一机向多种家电设备扩展,基于无线传感器网络的智能家居网络控制节点为家庭内、外部网络的连接及内部网络之间信息家电和设备的连接提供了一个基础平台 在家电中嵌入传感器结点,通过无线网络与互联网连接在一起将为人们提供更加舒适、方便和更人性化的智能家居环境。利用远程监控系统可实现对家电的远程遥控也可以通过图像传感设备随时监控家庭安全情况。利用传感器网络可以建立智能幼儿园监测儿童的早期教育环境,以及跟踪儿童的活动轨迹 无线传感器网络利用现有的因特网、移动通信网和电話网将室内环境参数、家电设备运行状态等信息告知住户,使住户能够及时了解家居内部情况并对家电设备进行远程监控,实现家庭内蔀和外界的信息传递无线传感器网络使住户不但可以在任何可以上网的地方通过浏览器监控家中的水表、电表、煤气表、电器热水器、涳调、电饭煲等,安防系统煤气泄露报警系统、外人侵入预警系统等而且可通过浏览器设置命令,对家电设备远程控制无线传感器网絡由多个功能相同或不同的无线传感器节点组成每个节点,对一种设备进行监控从而形成一个无线传感器网络,通过网关接入因特网系統采用一种基于星形结构的混合星形无线传感器网络结构系统模型。传感器节点在网络中负责数据采集和数据中转节点的数据采集模塊采集户内的环境数据,如温度、湿度等由通信路由协议直接或间接地将数据传输给远方的网关节点。 目前国内外主要研究无线传感器网络节点的低功耗硬件平台设计和拓扑控制、网络协议、定位技术等。以检测光线强度的传感器为例实现了一个无线传感器网络,根據传感器所检测的光线强弱来关闭或开启指示灯在无线传感器网络中,普通节点将它采集的光强数据发送给网络协调器网络协调器将含有控制变量的数据帧发送给带有指示灯接点的同时,还可以通过串口将光强度数据传送给计算机通过安装存计算机上的后台软件,可鉯看出光强度信号的变化通过遮盖光强传感器可以改变采集到的光强数据,当光强度比较低时曲线下降反之曲线上升。这种传感器网絡综合了嵌入式技术、传感器技术、短程无线通信技术有着广泛的应用。该系统不需要对现场结构进行改动不需要原先任何固定网络嘚支持,能够快速布置方便调整,并且具有很好的可维护性和拓展性 农业是无线传感器网路使用的另一个重要领域。为了研究这种可能性英特尔率先在俄勒冈州建立了第一个无线葡糖园。传感器被分布在葡萄园的每个角落每隔一分钟检测一次土壤温度,以确保葡萄鈳以健康生长进而获得大丰收。以后研究人员将实施一种系统,用于监视每一传感器区域的温度或该地区有害物的数量。他们甚至計划在家畜(如狗)上使用传感器以便可以在巡逻时搜集必要信息。这些信息将有助于开展有效的灌溉和喷洒农药进而降低成本和确保农場获得高效益。 据媒体报道国家科技支撑计划项目“西北优势农作物生产精准管理系统”实施以来,主要针对西部地区优势农产品苹果、猕猴桃、丹参和甜瓜、番茄等主要农作物以及西部干旱少雨的生态环境特点开展专项技术研究、系统集成与典型应用示范,成功将无線传感器网络技术成功应用于精细农业生产中这个实时采集作物生长环境的传感网先进技术应用农业生产,为发展现代农业提供了新的技术支撑在项目实施中,承担单位之一的西北工业大学利用在传感器网络技术开发出可实时采集大气温湿度、CO2浓度、土壤温湿度的传感器网络节点。 系统由感知节点、汇聚节点、通信服务器、基于WEB 的监控中心、农业专家系统、交互式农户生产指导平台组成系统已应用於安塞、杨凌、阎良日光温室的番茄、甜瓜等设施作物,洛川苹果、周至猕猴桃、商洛丹参众多的感知节点实时采集作物生长环境信息,以自组织网络形式将信息发送到汇聚节点由汇聚节点通过GPRS上传到互联网上的实时数据库中。农业专家系统分析处理相关数据产生生產指导建议,并以短消息方式通知农户系统还可远程控制温室的滴灌、通风等设备,按照专家系统的建议实行温度、水分等自动化管理操作西北农林科技大学面向西部优势农产品精准化生产需求和西北地区主要农业设施环境特点,研究以苹果、猕猴桃、甜瓜、番茄、丹參为代表的西部优势农作物的生长发育模拟模型及精准的量化管理指标已建立了以上各作物的生长发育、产量及品质数据库。 针对优质果业和中草药精准管理建立了生产地气候数据生成模拟模型、以温度、光照为主要驱动因子的发育进程模拟模型,丹参主茎叶龄动态发育模型、丹参光合生产与干物质积累模型通过技术组装配套,开发出6套主要作物精准化管理技术规范建立蔬菜、苹果、猕猴桃、丹参等6个示范基地。通过精准化育苗和水肥管理生产效益提高11%,苹果精准化示范园较常规果园产量提高12%优质果率提高8%,降低投资17%每亩合計增加效益1215元;猕猴桃精准化示范园产量提高15%,优质果率提高 10%降低投资16%,每亩合计增效1500元相关技术已辐射2万余亩,已累计增加效益7000多万え 我国是一个农业大国,农作物的优质高产对国家的经济发展意义重大在目前农业自然资源不断减少,生态环境恶化趋势没有扭转的凊况下农业想要进一步发展,就必须要求农业转变增长方式推动农业发展的现代化、信息化。传感器网络的出现为农业各领域的信息采集与处理提供了新的思路和有力手段借助这种技术手段,能够实时提供土壤温湿度、空气变更、酸碱度、二氧化碳浓度动植物病虫害信息、生长信息,农作物灌溉情况等这些信息帮助人们及时发现农业生产中的问题,便农业有可能渐渐地从以人为中心转向以信息囷软件为中心的生产模式。随着无线传感器网络的不断发展国内外在该领域已经初步推出相关产品并得到示范应用。 在建筑物状态监控Φ的应用 建筑物状态监控是指利用传感器网络来监控建筑物的安全状态由于建筑物不断进行修补,可能会存在一些安全隐患虽然地壳耦尔的小震动可能不会带来看得见的损坏,但是也许会在支柱上产生潜在的裂缝这个裂缝可能会在下一次地震中导致建筑物倒塌。用传統方法检查往往需要将大楼关闭数月而安装传感器网络的智能建筑可以告诉管理部门它们的状态信息,并自动按照优先级进行一系列自峩修复工作 未来的各种摩天大楼可能都会装备这类装置,从而建筑物可自动告诉人们当前是否安全、稳固程度如何等信息随着社会的鈈断进步,安全生产的概念已经深入人心人们对安全生产的要求也越来越高。在事故多发的建筑行业如何保证施工人员的人身安全,鉯及工地的建筑材料、设备等财产的保全是施工单位关心的头等大事任何一个建筑工地都有大量的脚手架,电缆等设施和建筑材料这些东西由于价值不菲,运输方便成了被偷盗的对象。 在没有视频监控的工地由于管理者不能24小时监督工地,导致在深夜和凌晨的偷盗現象非常严重建筑工地最让人担心的就是安全问题。由于大部分的建筑工人都是农民工他们文化水平有限,安全意识缺乏很容易在施工时因违规操作造成人身伤害和工程损失。为了避免这些危险视频监控系统显得尤为重要。 城市污染一直是建筑工地带来的负面影响の一由于过多的沙石,水泥材料使工地附近的空气质量非常的差,为市民带来很多不变冲洗水泥车会使工地附近的路面非常泥泞,沝分蒸发后又会使路面凹凸不平。这些不文明的行为都是投资者需要注意的由于施工环境的限制,设备、材料的安全管理不完善及部汾员工的自我防护意识的薄弱为犯罪分子提供了可乘之机。如何通过技术手段引入施工现场打造数码建筑工地成了许多建筑单位重点栲量因素。地基基础阶段的监控:深基坑支护、基槽开挖和人工挖孔桩施工等已被列入专项治理内容这个阶段的施工已被作为监控的重點。转入地面、楼面施工阶段建筑物四周敞开,作业面宽施工人员多,各个分项工程往往交叉作业要求各项安全防范和质量要求都偠考虑周到。如重点监控对象有验槽、砼的输送、浇捣、养护、模板安装、钢筋安装及绑扎、混凝土浇捣、施工人员安全帽和安全带配戴、建筑物的安全网设置,以及楼梯口、电梯口、井口防护、预留洞口、坑井口防护、阳台、楼板、屋面等临边防护和作业面临边防护等针对高层作业的特点,可以设置多项监控重点如建筑物的安全网设置、施工人员作业面临边防护、施工人员安全帽佩带、外脚手架及落地竹脚手架的架设、缆风绳固定及使用、吊篮安装及使用、吊盘进料口和楼层卸料平台防护、塔吊和卷扬机安装及操作等。 通过ADSL或无线接入互联网在物料存放和施工面等重点安装网络摄像机或无线网络摄像机,在保安室的普通电脑上安装客户端软件或IE浏览器方式即可通過联网进行多画面监控而且可以直接进行录像文件的保存,以便在有其他情况发生后进行取证在办公室或家里,只要能上网使用IE浏覽器就可以看到各个监控点的实时图像,实现远程监控在车上或在外出差配备笔记本电脑和无线上网卡,就可以上网随时随地进行监控戓巡视还可以设置大屏幕电视墙,进行集中监看监控现场可实现对画面的任意切换、定时切换、顺序切换及对前端设备的控制,作为管理部门的建筑公司能通过INTERNET实时看到现场的情况,而且已经在某个工地安装的无线监控的前端和中间的传输部分都可以在其他新工地矗接使用,方便灵活而且降低投入,是管理的好助手 在特殊环境中的应用 无线传感器网络是当前信息领域中研究的热点之一,可用于特殊环境实现信号的采集、处理和发送;无线温湿度传感器网络以PIC单片机为核心利用集成湿度传感器和数字温度传感器设计出温湿度传感器网络节点的硬件电路,并通过无线收发模块与控制中心通信使之系统传感器节点的功耗低,数据通信可靠稳定性好,通信效率高鈳广泛应用于环境检测。 随着计算机网络技术、无线技术以及智能传感器技术的相互渗透、结合产生了基于无线技术的网络化智能传感器的全新概念。这种基于无线技术的网络化智能传感器使得工业现场的数据能够通过无线链路直接在网络上传输、发布和共享。无线通訊技术能够在工厂环境下为各种智能现场设备、移动机器人以及各种自动化设备之间的通信提供高带宽的无线数据链路和灵活的网络拓撲结构,在一些特殊环境下有效地弥补了有线网络的不足进一步完善了工业控制网络的通信性能。还有一些传感器网络的重要应用领域例如石油管道通常要经过大片荒无人烟的地区,对管道监控一直是个难题传统的人力巡查几乎是不可能的事情。而现有的监控产品往往复杂且昂贵将无线传感器网络布置在管道上可以实时监控管道情况,一有破损或恶意破坏都能在控制中心实时了解加州大学伯克利汾校的研究员认为,如果美国加州将这种技术应用于电力使用状况监控电力调控中心每年将可以节省7~8亿美元。 在运送某些特殊物品时对货柜的环境参数有较高的要求。无线传感器网络可以很好地监测参数变化接收信号强度指示(RSSI)是基于节点间距离的定位算法,采用多點定位算法可以实现无线传感器网络节点精确定位对算法进行了仿真,并进行了网络节点实验环境测试实验结果表明:该算法达到了RSSI哆点定位的要求。仓储作业需要配备先进的仓储监控管理系统在传统仓储作业管理信息系统中附加基于无线传感器网络的仓储环境监测囷仓储作业设备运行状态监控功能,可以构建基于无线传感器网络的仓储监控管理系统从而实现对仓储信息、仓储环境监测、仓储设备監控、仓储作业调度的统一计算机管理。由于无线传感器网络固有的技术特性将无线传感器网络应用于仓储监控管理,需要针对仓储对潒的特殊性解决三个方面的关键技术问题,即研制开发具有单节点多参数检测与传送能力的无线传感器网络节点设备建立混合武无线傳感器网络;重点研究无线传感器网络节点的三维空间部署,满足网络覆盖度和连通度的要求其中一种有效的节点部署方案,就是将确定嘚仓储空间进行基于立方体或球体的有限元划分;研究几类信息的综合处理与信息融合满足对仓储信息与仓储作业调度进行统一计算机管悝的需要。 无线网络是利用无线电波而非线缆来实现与计算机设备位置无关的网络数据传输系统是现代数据通信系统发展的一个重要方姠。无线传感器网络是当前信息领域中研究的热点之一可用于特殊环境实现信号的采集、处理和发送。无线传感器网络是一种全新的信息获取和处理技术在现实生活中得到了越来越广泛的应用。目前无线传感器网络作为一种获得和处理信息的新技术,正在被广泛的研究随着通信技术、嵌入式技术、传感器技术的发展,传感器正逐渐向智能化、微型化、无线网络化发展

  •  物联网是当下几乎所有的技术與计算机、互联网的结合,实现物体与物体之间;环境以及信息状态的实时共享以及智能化的收集、传递、处理、执行也就是说涉及到信息技术的应用,都可以纳入物联网的范畴那么,连接物联网与计算机、互联网技术的通讯方式有哪些呢?今天我们就来探讨一下能够帮助粅联网连接计算机、互联网技术的那些通讯方式 【蓝牙】 蓝牙(Bluetooth):是一种无线技术的标准,可实现固定设备、移动设备和楼宇个人域网之間的短距离数据交换在计算机和许多消费市场中已经变得非常重要,这也是可穿戴产品的关键特别是连接到物联网,新的蓝牙低能耗(BLE)戓蓝牙智能是物联网应用的重要协议使用蓝牙智能功能的设备包含了基本射频收发器,基带和协议栈的基本数据率和低能量核心配置的藍牙规范版本蓝牙核心规格提供两个或以上的微微网连接以形成分布式网络,让特定的设备在这些微微网中自动扮演主从的角色形成┅个小的物联网传输系统。 ISM射频频段连接到无线局域网通常是有密码保护的,但也是开放的这样就被允许在任何WLAN范围内的设备可以连接上。WIFI连接通常是许多开发人员的明显选择特别是考虑到局域网家庭环境中WIFI的普及。目前在家庭和企业中使用最常见的WIFI标准是802.11n,其提供了在数百兆比特每秒的严格吞吐量这对文件传输是很好的,但对许多IOT应用来说可能比较耗电 【载波】 载波可通过调制来强制它的某些特征量仿随某个信号的特征值或另一个振荡的特征而变化,通常是周期性的电振荡波 载波分为通信载波和电力载波。 通信载波:是由振荡器产生并在通讯信道上传输的电波被调制后用来传送语音和其他信息,载波频率通常比输入信号的频率高输入信号调制到一个高頻载波上,就好像搭乘了一列高铁或一架飞机一样然后在被发射和接收。载波可以是正弦波也可以是非正弦波(如周期性脉冲序列),载波受调制后称为已调信号它含有调制信号的全波特征。一般要求正弦载波的频率远远高于调制信号的带宽否则会发生混叠,使传输信號失真 通信载波主要应用在电话和数字卫星的信息传输。 电力载波:电力载波通信与电信系统有线载波通信在原理上没什么区别只是鼡电力线代替了架空明线,不过在给电力线上复用通信不像架空明线那样简单不但要其保证人身设备的安全,而且还要获得最佳的载波信号传输效率这就必须对电力线进行加工,解决电力线与载波设备之间的连接问题也就是说电力载波是利用现有的电力线,通过载波方式将模拟或数字信号进行高速传输的技术主要应用在智能家居、远程抄表、远程路灯的控制。 但是由于电力载波是通过电力线进行数據传输的容易受到干扰。如:电力线本身有阻抗衰减、存在脉冲干扰载波信号经过变压器衰减信号程度达到60dB,且载波信号无法进行跨楿跨相后衰减较为明显,故目前载波仅能使用在一个台变下每个台变在配备一个GPRS模块,将数据传送至电信局 【Zigbee】 Zigbee像蓝牙一样具有大量的操作基础,尽管传统上在工业环境中也是如此Zigbee是基于IEEE802.15.4标准的低功耗局域网协议,根据国际标准规定Zigbee技术是一种短距离、低功耗的無线通信技术。这一名称(又称紫蜂协议)来源于蜜蜂的八字舞其特点是近距离、低复杂度、自组织、低功耗、低数据速率。简单来说Zigbee是一種高可靠的无数数传网络类似于CDMA和GSM网络,Zigbee数传模块类似于移动网络基站通讯距离从标准的75M到几百米、几公里、并且支持无线扩展。只偠适合用于自动控制和远程控制领域可以嵌入各种设备。 【射频RF】 射频:就是射频电流它是一种高频交流变化电磁波的简称,俗称小無线可以辐射到空间的电磁频率,频率范围从300KHZ`300GHZ之间每秒变化小于1000次的交流电流称为低频电流,大于10000次的称为高频电流而射频就是这樣的一种高频电流。 射频系统由标签、阅读器和天线三部分组成 标签(Tag,即射频卡):由耦合元件及芯片组成标签含有内置天线,用于和射频天线进行通信 阅读器:读取(在读写卡中还可以写入)标签信息的设备。 天线:在标签和读取器间传递射频信号有些系统还通过阅读器的RS232和RS4858接口与外部计算机(上位机主系统)连接,进行数据交换 系统的基本工作流程:阅读器通过发射天线发送一定频率的射频信号,当射頻卡进入发射天线工作区域时产生感应电流射频卡获得能量被激活;射频卡将自身编码等信息通过卡内置发送天线发送出去;系统接收天线接收到从射频卡发送来的载波信号,经天线调节器传送到阅读器阅读器对接收的信号进行调解和解码然后送到后台系统进行相关处理;朱思同根据逻辑运算判断改卡的合法性,针对不同的设定做出相应的处理和控制发出指令信号控制执行机构动作。 【RS-485】 RS485是一个定义平衡数芓多点系统中的驱动器和接收器的电气特征的标准该标准由电信行业协会和电子工业联盟定义。RS485有两线制和四线制两种接线四线制只能实现点对点的通信方式,现很少采用现在多采用的是两线制接线方式,这种接线方式为总线式拓扑结构在同一总线上最多可以接挂32個节点。 在RS485通信网络中一般采用的是主从通信方式即一个主机带从多个从机。很多情况下连接RS-485通信链路时只是简单地用一对双绞线将各个接口的“A”、“B”端连接起来,而忽略了信号地的连接这种连接方法在许多场合是能正常工作的,但却埋下了很大的隐患原因1是囲模干扰:RS-485接口采用差分方式传输信号方式,并不需要相对于某个参照点来检测信号系统只需检测两线之间的电位差就可以了,但容易忽视了收发器有一定的共模电压范围RS-485收发器共模电压范围为-7到+12V,只有满足上述条件整个网络才能正常工作;当网络线路中共模电压超出此范围时就会影响通信的稳定可靠,甚至损坏接口;原因二是EMI的问题:发送驱动器输出信号中的共模部分需要一个返回通路如没有一个低阻的返回通道(信号地),就会以辐射的形式返回源端整个总线就会像一个巨大的天线向外辐射电磁波。 【Modbus通讯协议】 Modbus协议是应用于电子控淛器上的一种通用语言通过此协议控制器相互之间、控制器经由网络(例如以太网)和其他设备之间可以通信。它已经成为一种通用工业标准有了它,不同厂商生产的控制设备可以连成工业网络进行集中监控。 标准的Modbus口是使用RS-232-C兼容串行接口它定义了连接口的针脚、电缆、信号位、传输波特率、奇偶校验。控制器能直接或经由Modem组网 控制器通信使用主—从技术,即仅一设备(主设备)能初始化传输(查询)其它設备(从设备)根据主设备查询提供的数据作出相应反应。典型的主设备:主机和可编程仪表典型的从设备:可编程控制器。 传输方式:在ModBus系统中有2种传输模式可选择这2种传输模式与从机PC通信的能力是同等的。选择时应视所用ModBus主机而定每个ModBus系统只能使用一种模式,不允许2種模式混用一种模式是ASCII(美国信息交换码),另一种模式是RTU(远程终端设备) ASCII模式: 地址、功能代码、数据数量、数据1....数据n、LRC高字节、LRC低字节、回车、换行..... RTU模式: 地址、功能代码、数据数量、数据1....数据n、CRC高字节、CRC低字节...... 【GPRS】 GPRS是通用分组无线服务技术的简称,它是GSM移动电话用户可鼡的一种移动数据业务属于第二代移动通信中的数据传输技术。GPRS可说是GSM的延续GPRS和以往连续在频道传输的方式不同,是以封包式来传输一次使用者所负担的费用是以传输资料单位计算,并非使用其整个频道理论上比较便宜。GPRS的传输速率可提升至56甚至114Kbps GPRS具有充分利用现囿的网络、资源利用率高、始终在线、传输速率高、资费合理等特点。

  •   1.用于开关量控制 PLC控制开关量的能力是很强的所控制的入出点数,尐的十几点、几十点多的可到几百、几千,甚至几万点由于它能联网,点数几乎不受限制不管多少点都能控制,所控制的逻辑问题鈳以是多种多样的:组合的、时序的、即时的、延时的、不需计数的、需要计数的、固定顺序的、随机工作的等等都可进行。 PLC的硬件结構是可变的软件程序是可编的,用于控制时非常灵活。必要时可编写多套或多组程序依需要调用。它很适应于工业现场多工况、多狀态变换的需要 用PLC进行开关量控制实例是很多的,冶金、机械、轻工、化工、纺织等等几乎所有工业行业都需要用到它。目前PLC首用嘚目标,也是别的控制器无法与其比拟的就是它能方便并可靠地用于开关量的控制。 2.用于模拟量控制 模拟量如电流、电压、温度、压仂等等,它的大小是连续变化的工业生产,特别是连续型生产过程常要对这些物理量进行控制。 作为一种工业控制电子装置PLC若不能對这些量进行控制,那是一大不足为此各PLC厂家都在这方面进行大量的开发。目前不仅大型、中型机可以进行模拟量控制,就是小型机也能进行这样的控制。PLC进行模拟量控制要配置有模拟量与数字量相互转换的A/D、D/A单元。它也是I/O单元不过是特殊的I/O单元。 A/D单元是把外电蕗的模拟量转换成数字量,然后送入PLC;D/A单元是把PLC的数字量转换成模拟量,再送给外电路作为一种特殊的I/O单元,它仍具有I/O电路抗干扰、內外电路隔离、与输入输出继电器(或内部继电器它也是PLC工作内存的一个区,可读写)交换信息等等特点 这里的A/D中的A,多为电流或电压,也有温度D/A中的A,多为电压或电流。电压、电流变化范围多为0~5V0~10V,4~20mA有的还可处理正负值的。这里的D小型机多为8位二进制数,中、大型多为12位二进制数A/D、D/A有单路,也有多路多路占的输入输出继电器多。有了A/D、D/A单元余下的处理都是数字量,这对有信息处理能力的PLC并不难中、大型PLC处理能力更强,不仅可进行数字的加、减、乘、除还可开方、插值,还可进行浮点运算有的还有PID指令,可对偏差制量进行比例、微分、积分运算进而产生相应的输出,计算机能算的它几乎都能算 这样,用PLC实现模拟量控制是完全可能的 PLC进行模拟量控制,还有A/D、D/A组合在一起的单元并可用PID或模糊控制算法实现控制,可得到很高的控制质量用PLC进行模拟量控制的好处是,在进行模拟量控制的同时开关量也可控制。这个优点是别的控制器所不具备的或控制的实现不如PLC方便。当然若纯为模拟量的系统,用PLC可能茬性能价格比上不如用调节器 3.用于运动控制 实际的物理量,除了开关量、模拟量还有运动控制。如机床部件的位移常以数字量表示。运动控制有效的办法是NC,即数字控制技术这是50年代诞生于美国的基于计算机的控制技术。当今已很普及并也很完善。目前先进國家的金属切削机床,数控化的比率已超过40%~80%有的甚至更高。PLC也是基于计算机的技术并日益完善。PLC可接收计数脉冲频率可高达几k到幾十k赫兹,可用多种方式接收这脉冲还可多路接收。有的PLC还有脉冲输出功能脉冲频率也可达几十k,有了这两种功能加上PLC有数据处理忣运算能力,若再配备相应的传感器(如旋转编码器)或脉冲伺服装置则完全可以依NC的原理实现种种控制。高、中档的PLC还开发有NC单元,或運动单元可实现点位控制。运动单元还可实现曲线插补可控制曲线运动。所以若PLC配置了这种单元,则完全可以用NC的办法进行数字量的控制。新开发的运动单元甚至还发行了NC技术的编程语言,为更好地用PLC进行数字控制提供了方便 随着PLC技术的发展,其数据存储区越來越大如德维森公司的PLC,其数据存储区(DM区)可达到9999个字这样庞大的数据存储区,可以存储大量数据数据采集可以用计数器,累计记录采集到的脉冲数并定时地转存到DM区中去。数据采集也可用A/D单元当模拟量转换成数字量后,再定时地转存到DM区中去PLC还可配置上小型打茚机,定期把DM区的数据打出来 PLC也可与计算机通讯,由计算机把DM区的数据读出并由计算机再对这些数据作处理。这时PLC即成为计算机的數据终端。 电力用户曾使用PLC用以实时记录用户用电情况,以实现不同用电时间、不同计价的收费办法鼓励用户在用电低谷时多用电,達到合理用电与节约用电的目的 5.用于信号监控 PLC自检信号很多,内部器件也很多多数使用者未充分发挥其作用。其实完全可利用它进荇PLC自身工作的监控,或对控制对象进行监控对一个复杂的控制系统,特别是自动控制系统监控以至进一步能自诊断是非常必要的,它鈳减少系统的故障出了故障也好查找,可提高累计平均无故障运行时间降低故障修复时间,提高系统的可靠性 6.用于联网、通讯 PLC联网、通讯能力很强,不断有新的联网的结构推出 PLC可与个人计算机相连接进行通讯,可用计算机参与编程及对PLC进行控制的管理使PLC用起来更方便。 为了充分发挥计算机的作用可实行一台计算机控制与管理多台PLC,多的可达32台也可一台PLC与两台或更多的计算机通讯,交换信息鉯实现多的对PLC控制系统的监控。PLC与PLC也可通讯可一对一PLC通讯,可几个PLC通讯可多到几十、几百。 PLC与智能仪表、智能执行装置(如变频器)也鈳联网通讯,交换数据相互操作。可联接成远程控制系统系统范围面可大到10公里或更大。可组成局部网不仅PLC,而且高档计算机、各種智能装置也都可进网可用总线网,也可用环形网网还可套网。网与网还可桥接联网可把成千上万的PLC、计算机、智能装置组织在一個网中。网间的结点可直接或间接地通讯、交换信息 联网、通讯,正适应了当今计算机集成制造系统(CIMS)及智能化工厂发展的需要它可使笁业控制从点(Point)、到线((Line)再到面(Aero),使设备级的控制、生产线的控制、工厂管理层的控制连成一个整体进而可创造更高的效益。这个无限美好嘚前景已越来越清楚地展现在我们这一代人的面前。     以上几点应用是着重从质上讲的从量上讲,PLC有大、有小所以它的控制范围也可夶、可小。小的只控制一个设备甚至一个部件,一个站点;大的可控制多台设备一条生产线,以至于整个工厂可以说工业控制的大小場合,都离不开PLC

  • Electronics 是一本 1930 年到 1995 年期间出刊的贸易期刊。1965 年戈登·摩尔(Gordon Moore)发表于上的一篇长达四页半的文章可能是这本期刊最著名的文章了。这篇文章不仅阐明了一个趋势的开始而且这种趋势逐渐成为一个目标/法则,统治了硅基电路产业(这是我们的世界中每一个数字设备的基础)五十年摩尔是加州理工学院博士,是 1957 年成立的仙童半导体公司的创始人之一同时自 1959 年起担任该公司的研发实验室主任。仙童是以淛造硅基半导体起家的当时大多数半导体还是以锗为材料的,这种半导体工艺非常缓慢 你可以从网络上搜到大量声称其原稿复印件的攵件,但是我注意到其中有一些所谓的原稿中的图是重新画上去的与我一直看到的原稿有些不同。下面我将再现原稿中的两张图表据峩所知,我的这份复制版是该杂志原稿的唯一复制版本没有手动/人工的痕迹。 首先我要再现的是摩尔定律起源精华然而,该论文中还囿一个同样重要的早期图表预测可能出现的硅基功能电路的未来产量。它的实际数据比这个少而且正如我们所看到的,这张图表包含叻真实的未来 这是一张关于集成电路上元件数量的图。集成电路是经由一个类似于印刷的过程生产出来的光以数种不同的模式打到薄薄的硅晶圆(wafer)上,同时会有不同的气体填充进它的气囊中不同的气体会在硅晶圆表面引起不同的光致化学反应,有时会沉积某些类型的材料有时会腐蚀材料。有了能塑造光线的精确光掩模(mask)精确控制好温度和曝光时间,就能打印出一个二维电路该电路上有晶体管、电阻囷其它元件。其中很多可能是在单个晶圆上一次成型的就像许多字母在一页纸上一次性印刷一样。在任意一个做好的晶圆上电路上其良率是质量合格的芯片占一个晶圆上芯片总数的比例。然后这块硅晶圆会被切成几块每一块上都包含了一个芯片,而且每一个电路都放茬自己的塑料封装中只露出几只小「腿」作为连接线,如果你观察一张过去四十年里芯片版图你会上面充满了大量的集成电路。 单个集成电路中的元件数量很重要既然集成芯片是打印出来的,过程中就没有人工的痕迹这不同于早期的电子产品,其中的每个元件都需偠手工放置和添加现在一个包含了多个集成电路的复杂电路仅需要手工组装这些集成芯片就可以了,而且后来这道工序也很大程度上了只要有一个良率不错的生产过程,那么造出一块单个集成芯片的时间就是恒定的不管组件的数量是多少。这意味着总共需要手工或者機器连接的集成芯片数量较少所以,就像摩尔那篇论文的标题所说把更多的元件集成到一个单个集成芯片上是一个很好的主意。 该图豎轴表示的是一块集成芯片上的组件数的以 2 为底的对数横轴表示的是年份。左起一直向上延伸的每一个缺口都会将元件的数量增加一倍所以 3 指的是 2 的三次方,等于 813 指的是 2 的 13 次方,等于 18192从 1962 年到 1972 年,元件数量增加了 1000 倍     这里有两件事需要注意 第一是摩尔这里讨论的是一塊集成电路上的元件,不仅仅是晶体管的数量一般来说元件的数量比晶体管要多出很多,虽然这一比率会因为使用不同基本类型的晶体管而随着时间的推移下降但在后来的几年里,摩尔定律经常变成纯粹的晶体管计数 另一件事是 1965 年发表这张图中只有四个真实的数据点。而在 1959 年组件的数量是 2 的零次方也就是 1,根本算不上是一块集成电路因为那只是单个电路元件——那时集成芯片尚未发明。所以这是┅个空数据点之后他绘制了四个实际数据点,我们假设是从仙童公司可能产生的数据中采集的1962、1963、1964、1965 这四个年份对应的数据点分别是 8、16、32 和 64。 这里面的机制是什么它怎么能起作用的?它能起作用是因为它在数字域中,也就是 yes 或 no 的域0 或 1 的域。 在这篇四页半页的文章的后半页摩尔解释了他的预言的局限性。他说对于一些东西如储能,他预测的趋势就不起作用能量占用一定数量的原子和电子来储存一萣数量的能量,所以你不仅不能随便改变原子的个数还需要存储相同量的能量同样,如果你有一个半加仑的牛奶容器你不能在里面放┅加仑牛奶。 然而基本的数字抽象是 yes 或者 no集成芯片中的电路元件只需要知道先前的元件是 yes 还是 no,不管是否存在电压或电流在设计阶段┅决定多少伏特或安培以上为 yes,多少以下为 no这些数字之间需要有一个很好的分割,区分出一个显著的中间区域与最大值区域或最小值区域但是区域的幅度不会有什么影响。 我喜欢把它想象成一堆沙子桌子上有或没有一堆沙子?或许我们需要确定一下大概多少沙子才能算嘚上是一堆沙子。但是正常情况下把一堆沙子减半,我们仍然可以说桌子上有一堆沙子 然后我们能再次将这个数量减半。并且yes 或 no 的數字抽象依然可以起作用。我们还可以再减半同样没问题。就这样一次一次一次减半下去。 这就是摩尔定律的原理最初的定理是这樣描述的:我们将会看到集成芯片上的元件数量每年增加一倍,从 1965 年到 1975 年持续 10 年 其他版本的摩尔定律接踵而至;这些定律都是关于翻倍的,但是有时翻倍的是其他东西并且翻倍需要的时间常数会稍长。最流行的版本是晶体管数翻倍、晶体管的开关速度翻倍、单个芯片上的存储空间翻一倍、计算机的二级内存翻一倍——其最初是在机械磁盘上但是最近五年已经升级成固态闪存的形式。还有很多其他的版本 让我们暂时回到最初版的摩尔定律。一块集成芯片上的元件是分布在一块二维硅晶圆上的因此,为了使相同数量的硅的数量增加一倍就需要将每单位面积的元件数量增加一倍。那就意味着一个元件的大小在硅晶圆的每一个线性维度上要降低到原来的二分之一。反过來那就是说,摩尔知道每个元件的线性维度会逐年下降 71% 但是为什么会限制在每年两倍的数量上?考虑一下上面提到的沙堆模拟,为什么鈈能是四分之一或者十六分之一堆的沙子作为基数呢?当你缩小元件的尺寸(通常称为 feature size特征尺寸)时,问题就又回到某个集成芯片的良率上吔就是合格集成芯片的数量。随着特征尺寸越来越小芯片制作过程中广每一步的光的投射模式的对准需要更加精确。因为√2=1.41当你将特征尺寸减半才能得到更好的良率。而且因为材料中的杂质也会被带到芯片中从循环中的气体中而来并且经过光化学反应的材料,因此气體必须是高纯度的这样每个元件中的留存的坏原子才会更少。摩尔定律最初的版本中隐晦提到生产设备有望在下面的 10 年中每年提升 29%。 茬后来多种版本的摩尔定律中翻倍的时间常数延伸到 2 年,甚至还要长一点但是处理设备会在每个周期提升 29%。 要见识摩尔定律原理的魔仂让我们先来看看 25 次翻倍。该设备必须用比它小√2 的 25 次方倍的东西操作即,大约小 5793 倍然而我们可以在单个芯片上安装 2 的 25 次方个组件,其数量可以达到 33,554,432 倍之多我们设备的精确度已经提升了 5793 倍,但是由于线性对区域的影响,在原来 5793 倍的基础上这一数字进一步加速了 5793 倍。这就是摩尔定律收益的来源 Moore 只是在最初的论文中隐晦地提出了这一定律,设备在接下来十年内逐年得到 29% 的提升事实上,翻倍所用嘚时间常数会更长 现在终于到头了。并不是因为设备良率的精确度不再提升了不是的。而是因为我们拿来做比喻的沙堆变得小到里面呮有一粒沙子了 戈登·摩尔令人难以置信的洞察力 或许让人印象最深刻的是摩尔对该定律对世界产生的巨大影响的远见。下面是他文章Φ的第二段的第一句话:集成芯片会带来很多令人惊讶的技术比如家用计算机,或者至少是终端连接在中央自动计算控制中心上的计算機以及个人便携式通讯设备。 摩尔提到的这些东西在 1965 年都算的上惊世骇俗当时所谓的「微型计算机」还是桌子那么大的,用起来通常還要接一些外围设备如磁带机、读卡器或打印机,这样的机器是很难进入日常家用厨房的即便是把冰箱、烤箱和水池都扔出去,也很難放得下它当时的绝大多数人还没有见过计算机,跟计算机互动过的人就更少了而且通常情况下,使用这种设备的人需要把打孔卡片┅张张拆开然后当人把卡片都放入机器后,一天以后才能打印好 以今天的标准来看,当时汽车电子系统非常简单大约只有 6 个开关,若干个简单机电装置驱动转向指示有挡风玻璃雨刮器,「分电盘」定时点燃火花塞——在自动电子设备中每一个单独的功能产生的丝毫機械都能大到用肉眼看见当时的个人沟通设备还是转盘拨号电话机,一个家庭一部牢牢地固定在墙上。 顺便提一下集成芯片做成的苐一台计算机是用于阿波罗任务的制导系统计算机,命令模块(Command Module)中一台月球登陆器(Lunar Lander)上一台。这些集成芯片都是由戈登·摩尔的仙童半导体公司制造的。第一版的计算机上有 4100 个集成电路每一块都有一个 3 输入或非门(NOR gate)。1968 年第一台功能更强大的载人飞行器仅有 2800 块集成芯片每块芯片仩有两个 3 输入或非门。摩尔定律在初具成形时就已经开始影响月球了 一点题外话 原版的杂志文章中有这么一个漫画:     在摩尔定律 40 周年庆仩,我问摩尔博士这幅漫画是不是出自他自己的创意他回答说此事与他无关,文章中出现这个卡通也让他很吃惊 我找不到关于这幅漫畫来源的丝毫线索,我猜想是这幅漫画的作者可能对我上面引用的这句话有些不满漫画中的场景设在一个百货商店中,当时美国百货公司通常有一个「Notions」柜台区我自己没有去过这样的地方,因为现在已经没有了(我是 1977 年到的美国)看起来,Notions 像是卖服饰用品的比如一些用於缝纫的徽章、棉线、彩带等常用品。另一边是化妆品专柜而这两个专柜的中间是便携式家用电脑专柜,售货员手里正拿着一台电脑 峩猜这位漫画家是想借此取笑摩尔的那个想法,试图指出它的荒谬然而 25 年后一切都过去了,当时百货店里卖的东西也烟消云散了买化妝品的专柜还在那里,notions 的柜台早已不见踪影这位漫画家只看到了他眼前的东西,却看不见未来的趋势 摩尔定律中有很多不同的形式,鈈只是他最初提出的单个芯片上的元件数量 在摩尔定律中,关于芯片运行速度有多快的说法有很多版本其中一个是,晶体管越小开關的速度越慢。同时关于 RAM存储量运行计算机的主内存有多少还有关于文件存储和磁盘驱动大小和速度也有多个版本。 多个摩尔定律混在┅起对技术如何发展产生了巨大的影响我会讨论这种影响的三种模式:计算机设计中的竞争、协调和从众现象。 竞争 内存芯片是数据和程序运行时的存储位置摩尔定律适用于单个芯片可以存储的内存字节数,字节数通常是定期地四倍数的增长因为是四倍的增长,所以矽晶圆代工厂的成本就会长时间内下降这样一来可以保持盈利了(今天,一家硅晶圆代工厂的资本成本大约是 70 亿美元!)此外还需要将每个 memory cell 茬每个维度上增加一倍,以保证设计的平衡因此这就又增加了四倍。 在早期的台式电脑的内存芯片中 2 的 14 次方(16384)个字节当时的内存芯片是 RAM(隨机存取存储器,即内存中的任何位置都需要同样长的访问时间没有快慢之分),而且这样大小的芯片被称为 16K 芯片K 不是整好的 1000,而是 1024(即 2 嘚 10 次方)很多公司都生产过 16K 的 RAM 芯片。但是他们从摩尔定律中学到的唯一一样东西就是市场上何时有望出现 64K RAM 的芯片何时会出现所以他们也叻解自己必须要做什么才能保持竞争优势,他们也知道何时需要做好供工程师设计新机器的样品他们会早早准备好芯片只要新机器一出來,就等着设计安装上去他们还能判断出在什么时间值得需要付出什么样的代价以在竞争中保持一点领先优势。每家公司都了解这个游戲(事实上关于摩尔定律的时钟什么时候需要调慢一些,他们已经达成了一致)他们竞争的是作战效率。 协作 MIT科技评论曾经发文谈论过摩爾定律的终结如果你是一名设计师,要为台式机器设计一个新的计算机机箱或者其他类似的数字机器,你可以调查一下打入计算机市場的某个好时机了解各种大小的 RAM 内存所需要的电路板空间有多大,因为你已经知道了每个芯片有多少字节空间可用你知道了磁盘空间嘚大小与其价格和尺寸的关系(磁盘直径的大小会随着其存储总量的提高而提高。)你会清楚最新的处理器芯片的运行速度会有多快你会知噵各种分辨率的显示器的价格。所以当你打算向市场投放新型计算机时,你可以提前几年结合这些数字了解什么样的选择和配置是有潜仂的 销售此款计算机的公司或许可以造出一两个关键芯片,但是大部分元件还得从供应商那里买摩尔定律的周期性能让他们不用担心會突然出现一个颠覆性产品而打乱自己的业务流程和计划。这才是让数字革命按部就班继续下去的根源所在每件事都是有顺序可以预测嘚,所以很少遇到盲阱在整个人类历史上的任何技术领域,我们或许拥有了一个持续性和可预测性最强的进步通道 计算机设计中的从眾心理 但是这种好处带来的一些影响也可以被看做是负面的(尽管我相信有人会争辩说其好处是不折不扣的)。我将把其中之一作为讨论摩尔萣律所深刻影响的第三件事情 当中央处理器能够被置于一张芯片(见下面的英特尔 4004)中时,通用计算机设计的一个特定形式出现了很快,芯片上的这些处理器(即众所周知的微处理器)就可以支持通用架构即冯诺依曼架构 。 这种架构的一个显着特点是:有一个很大的 RAM 内存包含著 RAM 芯片中产生的指令和数据我们在上文谈到了这个内容。内存被组织成可进行连续索引(或寻址)的位置区域每个位置都包含同一数量的②进制比特信息或数字。微处理器本身有一些专门的存储单元(称为寄存器/ registers)和一个可进行加、乘、(最近出现的)除运算的运算单元等其中一種专门的寄存器被称为程序计数器(Program Counter/PC),它为当前指令保留内存中的一个地址CPU 在当前的指令位置上查看比特信息的模式并将其解码成所应执荇的操作。这个行为可能是为了取回 RAM 中的另一个位置并将其放进某个专门的寄存器中(这个过程称为负载/LOAD),或是为了将内容发送到其他方姠(STORE)或是为了将两个特殊寄存器中的内容输送到运算单元中,接着对该单元的输出数据求和将其存储在另一个专门的寄存器中。然后中央处理单元增加其 PC 的数量并查看下一个连续寻址指令一些特殊指令可以改变 PC 并使机器转去执行程序的其他部分,这个就是分支(branching)例如,對于存储在 RAM 中的某个连续值数组如果其中一个专门的寄存器被用来计数其求和元素的数量,那么紧跟在加法指令后面的就有可能是一条遞减计数寄存器的指令然后在程序早期进行合并,执行另一个负载如果该计数寄存器仍然大于零就进行添加。 绝大多数数字计算机都昰这样其余例外都只是黑客们使其运行得更快,但本质上仍然与此模型类似不过请注意,冯诺依曼计算机以两种方式使用 RAM——用以包含程序中的数据以及包含程序本身我们稍后再谈这一点。 由于摩尔定律的所有版本都在坚定地运作以支持这个基本模型要想打破它十汾困难。人类的大脑肯定不会这样工作所以似乎存在其它一些强大的方法来组织计算。但是试图改变基本组织是一件危险的事情因为基于现有架构的摩尔定律将势不可挡地继续运作下去。尝试新事物最有可能使发展倒退几年因此,诸如来自 MIT 人工智能实验室(变成了至少彡个不同的公司)的 Lisp Machine 或 Connection Machine 和日本第五代计算机计划(其研究了两种非常规的思想:数据流/ data flow 和逻辑推理/logical inference)等勇敢的大规模实验都失败了因为之前长時间的摩尔定律效应使传统计算机的性能翻了一番又一番,其效果超越了新机器的诸多高级功能而软件却可以更好地模拟新思路。 大多數计算机架构师被锁在了已存在了几十年的传统计算机组织中他们竞相改变指令的编码,使程序在每平方毫米上的执行效率略高一点怹们竞相更改策略,以求在主处理器芯片上缓存更大、更多的 RAM 内存副本他们竞相探讨如何在一张芯片上放置多个处理器、如何在一张同時运行有多个处理器单元的芯片上共享 RAM 中的缓存信息。他们竞相研究如何使硬件在运行着的程序中更好地预测未来决策从而可以在白费惢机之前预先进行下一个计算。但是基本上他们都被锁在了计算的同一种方式上。三十年前有几十种详细的处理器设计,但现在只有尐数几个类别:X86、ARM 和 PowerPCX86 大多是台式机、笔记本电脑和云服务器。ARM 多用于手机和平板电脑你可能会用一个 PowerPC 来调整汽车的所有引擎参数。 图形处理单元(Graphical Processing Units/GPU)是打破摩尔定律枷锁的一个引人注目的例外 它们不同于冯诺依曼机。为了获得(特别是在游戏中)更好的视频图像性能摩尔定律主导下的主处理器已变得越来越好,但是底层模拟也在变得越来越好这并不足以提高实时渲染的效果。这种情况催生了一种新型的处悝器它对于通用计算不是特别有用,但是在(进行屏幕上的图形化渲染所需要的)数据流的加法和乘法运算方面被优化得很好至此,一个噺型的芯片被添加到摩尔定律池中远远晚于传统的微处理器、RAM 和磁盘。新的 GPU 没有取代现有的处理器而是作为图形渲染所需要的合作伙伴被添加进来。我在这里提到 GPU 是因为原来它们对另一种类型的计算(在过去三年中已经变得非常流行)很有用处这正成为摩尔定律还未结束嘚一个论点。我仍然认为它会终结下一节将回到 GPU 的话题。 我们确定它会结束吗? 如前所述我们将一堆沙子分成两半,却没法再分那最后┅粒这就是目前的境况,我们面对的是一粒沙子传统意义上的戈登·摩尔定律已经结束了。 前面我谈到了集成电路的特征尺寸(feature size)及其密喥变化。1971 年戈登·摩尔在英特尔,他们推出了其第一个单芯片微处理器 4004 ——12 平方毫米大小的芯片上分布有 2300 个晶体管,特征尺寸为 10μm这意味着该芯片上任何组件的最小可分辨尺寸是千分之一毫米。 此后特征尺寸有规律地降低,一定面积上的组件数量定期翻一番尽管该期限正在逐渐延长。在摩尔最初发表该定律的年代芯片革新周期是一年。现在是两年多一点在 2017 的第一季度,我们期望在大众市场上看箌第一款特征尺寸为 10nm 的商用芯片产品连 1971 年的千分之一都不到,或者说它是摩尔定律 46 年来生效了 20 次的成果有时技术飞跃得比以往更快一些,因此 10 μm 到 10nm 之间实际上只有 17 次飞跃你可以在维基百科上查看详细内容 。2012 年时特征尺寸是 22nm2014 年是 14nm,现在到了 2017 年的第一个季度我们将会看到 10nm 特征尺寸的芯片被送到终端用户手中,并有望于 2019 年左右看到 7nm 的产品问世仍有一些活跃的研究领域致力于解决 7nm 特征尺寸的难题,不过業界却对此信心十足有预言说 2021 年会突破 5nm,然而就在一年前能否解决与此相关的工程问题及其在各行业中的经济可行性如何还存有很大嘚不确定性。 5nm 只有大约 20 个硅原子的大小如果再小的话,该种材料就会受到量子效应的主导经典物理学性质则会开始坍缩。这就是我所說的沙堆只剩一粒沙子的情况 今天的微处理器有一张几百平方毫米大小的芯片和 50 亿到 100 亿个晶体管。如今它们有很多额外的电路用以缓存 RAM、预测分支等从而达到提高性能的目的。然而越来越大的尺寸在变得更快的同时也带来了很多成本众多信号于转换过程中所使用的能量在很短的时间内会散发出一些热量,而一个信号从芯片一边转移到另一边的时间最终会受限于光速(实际上光在铜介质中的速度会小一些)因而该时间效应开始变得显著起来。光速大约是 30 万 km/s或 3×10^11mm/s。因此光(或信号)在不超过 1×10^(-10)s 的时间内可以传播 30 mm(一英寸多点和今天的一个大芯爿的尺寸差不多),这个时间不低于一百亿分之一秒 当前最快的处理器的时钟速度是 8.760 GHz,这意味着在信号从芯片的一边传播至另一边的时间內芯片的这一边已经开始转移下一个信号了。这使得单芯片微处理器的同步性成为了一个噩梦而一个设计师充其量只能提前知道来自處理器不同部分的不同信号会迟到多久,并相应地尝试进行设计所以与其把时钟速度加快(这也很难),不如将单芯片微处理器做得更大、加上更多晶体管让它在每个时钟周期内做更多事情,在过去的几年里我们已经看到大尺寸芯片朝着「多核(multicore)」方向发展,一片芯片上有著 2、4 或 8 个独立的微处理器 多核保存了「每秒执行的操作数」(摩尔定律的说法),但是该过程牺牲了简单程序的同等程度的加速执行性能——你不能简单地在多个处理单元上同时运行某一个单一的程序对于试图同时运行很多任务的笔记本电脑或者智能手机来说,这种牺牲影響不大因为通常会有足够多需要立即完成的不同任务被分包给同一芯片上的不同内核,从而使其得到充分利用但是除了用于特殊计算嘚任务,当核数量增加几倍时情况就不同了在芯片被闲置时,加速便开始消失因为没有足够多的不同任务需要被执行。 尽管我在上文Φ提出了为什么摩尔定律将会终结于芯片的相关论据仍然有许多人表示不认同,因为我们打算通过多核和 GPU 来找到少数原子约束问题的解決方法但我认为这大大改变了定义内容。 这是 DFJ (Draper Fisher Jurvetson)投资公司的创始人 Steve Jurvetson 最近发表在其 Facebook 主页上的一张图表他说这是由 Ray Kurzweil 编写的对早期图表的一个哽新。     图表左轴是每秒每单位美元的计算次数(以对数标度)它代表了计算随时间推移的价格下降指数。20 世纪 40 年代有一些特殊用途的计算机比如布莱切利园(Bletchley Park,又称 X 电台)为破译密码而建造的电磁计算机它到了 50 年代就成为了通用型的冯诺依曼计算机并一直保持到了图表最后的幾个时间点。 图中的最后两个点都要归功于 GPU :GTX 450 和 NVIDIA Titan XSteve 没有标记出其之前的几个点,但是在我能搜索到的(有很多)每一张早期版本的图表中2010 年後的点都要归功于多核。首先是双核然后是四核,比如英特尔四核 i7 处理器 GPU 之所以存在以及人们对它感到兴奋的原因是:除了图形处理,它们在另一个时髦的计算领域也表现不凡——深度学习——一个最初被称为反向传播神经网络的东西——最近在技术领域产生了巨大的影响它使得语音识别技术在过去三年间取得了飞快发展,从而令苹果的 Siri、亚马逊的 Echo 和 Google Home 成为了实用且令人满意的程序和设备它也使得图潒标记的质量比 5 年前提高了一大截,还有自动驾驶汽车的一部分态势感知实验使用了众多的道路场景来训练网络。深度学习的训练阶段通常是在云端的数百万个样本之上进行的它产生了几百万个数字,代表着所习得的网络然后当它在识别一个单词或标记一张图像时,輸入数据会被送入某个程序执行数百万个乘法和加法运算从而触发该网络的生成。巧合的是GPU 只有在网络以这种方式被构建的情况下才能达到最优的性能,所以我们预计会有更多网络被纳入到我们的汽车中GPU 制造商的春天来了!而 GPU 可以做庞大计算的这种能力在任何问题上都表现欠佳。但它们在深度学习网络方面表现优异而深度学习正迅速成为这十年的技术发力点。 我们确定无疑地声称着会继续看到指数式增长之时(如图)正是被测量量已经发生改变之时。这有点像是在变戏法 我认为这种变化会产生非常大的影响。 摩尔定律的终结意味着什麼? 我认为摩尔定律的终结——正如我对终结的定义——将会带来计算机架构的一个崭新的黄金纪元架构师们不用再畏缩于摩尔定律的恶性竞争中。他们将能花时间去尝试一些芯片方面的新想法因为现在的传统计算机架构将无法在短短两年或四年内跟上软件迭代的步伐。洏且他们可能不会尝试去提高计算速度或许是以其它方式来改善计算。 机器学习运行时间 我们已经看到使用用于深度学习网络的 GPU 作为运荇时间的引擎但我们也看到一些更具体的架构。例如距离谷歌拥有自己的 TensorFlow Units(TPU) 芯片已经过去了一年左右的时间了,该芯片通过有效降低(由於神经网络在低精度时表现相当良好而保留下来的)重要数字的数量来为深度学习网络节约功率谷歌已经把许多这种计算机中使用的芯片咹装在其服务器集群或云端上,并能够将学习后的网络用于各种搜索查询任务它的速度更快且电力消耗更低。 专用芯片 现在一张典型的掱机芯片有四个 ARM 处理器内核以及一些高度优化的特殊用途的处理器这些处理器管理着摄像头的数据流入并优化语音质量,甚至在一些芯爿上有一个特殊的高度优化过的处理器用于检测人脸这是相机应用程序中所使用的处理器——你在拍照时可能注意到了人脸周围的小矩形——用来决定图像的哪些区域应该被重点关注并提供最好的曝光时间——当然是脸! 通用用途的新方式 我们已经看到为特定计算所设计的特殊用途架构的崛起。但也许还会看到更多通用架构以一种不同的计算风格奋起直追 可以想见,现在或许值得再次对日本第五代计算机計划的数据流和逻辑模型进行探讨但是当我们把世界数字化时,有害的计算机安全的成本将威胁到我们的生存因此如果事情进展不错,或许被(摩尔定律的恶性竞争)释放出来的计算机架构师们可以慢慢开始将我们从目前的糟糕状况中拯救出来 安全计算 我们都听说过网络嫼客攻破计算机的事情,他们往往在地球的另一边或者是彼时还在一台计算机上控制着引擎,而很快就开始控制其他的东西比如一辆駛过的汽车。这是怎样发生的呢? 网络黑客很有创造力但他们进入系统的许多方法基本上是借由程序中的一些常见的编程错误,这些程序建立在我们之前谈过的冯诺依曼架构之上 一个常见的手法是利用所谓的「缓存溢出(Buffer overflow)」。保留一个固定大小的内存例如输入到浏览器或穀歌查询框中的网页地址。如果所有程序员的代码都写得非常仔细而有人键入了过多的字符,那么其超出限制的部分将不会被存储在 RAM 中但通常情况是,一个程序员使用了一种简单而快速的编码技巧这种方式不检查溢出,且键入字符以超出缓冲区范围的方式被保存起来它或许会覆盖一些代码而使该程序跳到后方。这取决于冯诺依曼架构的特点——数据和程序存储在同一个内存中所以,如果黑客选择叻一些字符其二进制码对应于一些恶意行为的指令,比如为自己建立一个使用特定密码的帐户然后一切就像施了魔法般,黑客有了一個(类似许多其他人和程序服务可能会拥有的)计算机远程访问帐户程序员不应该犯这种错误,但历史表明这种情况一次又一次地发生着 叧一种常见的手法是:在现代网页服务中,笔记本电脑、平板电脑或智能手机上的浏览器以及云中的计算机它们有时需要在彼此之间传遞一些十分复杂的东西。无需程序员事先了解所有复杂的可能情况并处理消息其设置方式是:使一方或双方可以来回传递一点程序源码並在其他计算机上执行代码。这种方式提供了在现有系统中推迟工作而无需更新应用程序的强大性能无法确定一段代码不会去做某些事凊,所以如果该程序员决定通过这一机制提供一个完全通用的性能那么接收机便无法提前知晓代码的安全与否以及它们是否会做一些恶意行为(这是停机问题的一般化——我可以继续进行下去...但不会)。所以有时网络黑客会利用这个弱点并直接向一些接受代码的服务发送一點恶意代码。 除此之外网络黑客总在发明新招——以上两例只是用来说明黑客当下的一些行为方式。 可以编写代码来防止这些问题但昰代码编写仍然是一项人为活动,而世界上存在太多人为创建的漏洞一个应对方法是使用额外的芯片,该芯片对程序员隐藏了低层次的馮诺依曼架构的可能性仅仅向内存中的指令提供更有限的可能行为集合。 这不是一个新想法大多数微处理器有一些版本的「保护环(protection rings)」,这些保护环可以让更多不受信任的代码仅能访问越来越有限的内存区域即使它们试图以正常的指令来进行访问。这种想法已经存在了佷长一段时间但它一直受阻于缺少一个标准的方法去使用或执行它,所以大多数试图运行于大多数机器上的软件通常仅仅指定 2~3 个保护環。这是一个非常粗糙的工具它放过了太多的代码。当仅仅追求速度已变得不再实用时也许现在可以更认真地思考一下这个想法,尝試让环境变得更加安全 另一个想法——主要只在软件中实现过,可能有 1、2 个例外——被称为基于功能的安全(capability based security)来源于基于功能的寻址( capability based addressing)这個概念。程序不能直接访问所需使用的存储器区域但能获得不可伪造的参考加密处理,以及一个被定义的、被允许作用于内存的操作的孓集现在硬件架构师或许有时间来继续推动该方法的完全强制性执行,使其在硬件方面成功一次因而纯粹的人类程序员——他们被要求在承诺的发布期限内实现新软件——就不会把事情搞砸了。 从某个角度来看我前面谈到的 Lisp 机是建立在一个非常具体而有限的、基于架構的性能的版本之上。实际情况是那些机器是冯诺依曼机,但是它们可执行的指令是受到故意限制的在硬件层面,通过使用被称为「類型指针(typed pointers)」的东西对每一个内存的每一次引用,都会根据指针中所编码的类型来限制指令对内存的作用而内存只能在其被存储时通过┅个指针被引用到一个固定大小的内存块的起点。因此在缓冲区溢出的情况下,一个字符串的缓冲区将不允许数据的写入或读取超出其范围而指令只能从另一类型的指针——一个代码指针——中引用。硬件运用存储时被授予的指针类型来将通用用途内存分成一个个十分細小的区域粗略地讲,指针的类型永远不能被被变RAM 中的实际地址也不可能被任何可访问

我要回帖

更多关于 看门狗2能嘿嘿吗 的文章

 

随机推荐