分享

十进制及多进制逆向神经网络计算机专利技术解密文件WORD版(译码器的输出实际是标准的神经网络单元你总不能说译码器的输出是二进制信息吧)

 山峰云绕 2021-08-07

https://m.toutiao.com/is/ewK7jP9/ 


  (译码器的输出实际是标准的神经网络单元你总不能说译码器的输出是二进制信息吧)




十进制、多进制、逆向神经网络计算机专利技术深度解密文件

1:位权信息

所谓“位权信息”,是由位置信息加权的神经网络单元信息,是由一维空间网络节点组成的单元信息,并且和进位制相关,每个节点“权值”各有不同,多个节点组成一个神经单元,神经单元运行时,只有一个节点信息是“凸出”或“凹陷”,其它各节点静默,“凸出”或“凹陷”和“静默”的信息特征由神经网络单元内部各节点信息相互比较而显现,例如:在一个神经网络单元中,多数节点信息处于高电平,只有一个节点信息处于低电平,这种表达叫做“凹陷”表达,多数节点信息处于低电平,只有一个节点信息处于高电平,这种表达就叫做“凸出”表达。“静默”所指是处于静止未激活的输出状态,“静默”状态输出值是依照“凸出”或“凹陷”的状态信息而定,无论“凸出”或“凹陷”是高电平或低电平,它处于神经网络节点信息状态是“有效”、“激活”状态,与其连接的下一级节点信息,必须改变状态,这种产生作用的状态称为“有”效状态;这样“静默”状态的输出总是对与其连接的下一级节点不产生任何作用;这种“无”作用的状态称之为“无”状态。这就是“有1”和“ 无 ”的形成过程。“有1”和“ 无 ”是神经网络单元各节点信息的形象评判。如下图:

从数字表达计算方面看,“位权信息”是空间分布的多个网络节点组成,有两种“位权”表达方法,一是“进位位权”,二是“本位位权”,两种“位权”表达方法都是利用空间“位置”表明数值大小的方法;习惯上人们把水平无序排列的各位数字,按其所处位置的不同所设立的位置权重称为“位权”。在“量化逻辑”中把这种“位权”称为“进位位权”,因为各位之间存在进位关系。所谓“本位位权”依然是空间排列的多个节点组成的一组数字,不过参照“进位位权”:如果“进位位权”是水平无序排列的各位数字,那么“本位位权”就是垂直有序排列的节点位置数字,是按大小次序排列的,一个数字只占一个列节点位置,一列节点数字中每个数不能重复,保持其唯一性,一列数字共有多少个数字节点由小到大排列,就是几进位制;用“进位位权”表达的一组数字,其各个位置的数是用一列“本位位权”数字中的一个数字作为“显值”,其它“本位位权”的各数都处于“隐藏”状态,不显示其值。“本位位权”的各位置数字,从小到大可以循环、往复、跳跃使用。

“本位位权”和“进位位权”都是用二维空间节点位置表述数量多少的一种空间表达方法,“进位位权”用个、十、百、千、万、十万……来表述各位的进位位权,“本位位权”用0、1、2、3、4…..来表述空间的分布位置权,由“本位位权”中的数字位置多少,确定“进位位权”的进位制式。因此,“进位位权”是由“本位位权”限定的进位制式。

这种“位权信息”的表达方法方法在老式的机械仪表中得到广泛使用。如下图:

整齐的阵列式排布,无次序的“权值”“凸出”,表达不了具体数值。

打乱的整体布局,整齐的“凸出”显示,明确指向数:83194275。把平面含有数字符号的空间单元从另一维度两头卷曲对接可得到连续循环的“凸出显示”窗口。大家可以看到,二维空间分布的数字在第三维方向卷曲形成的数字环是完全的硬件设施,它永远是存在的,而水平遮挡留出的窗口显示数字则是唯一的,循环变化的。这里“显示”与“不显示”是“状态”,显示的数字是“权”,在“显示”的状态下,有多个可以选择的显示“权值”,只有展现在窗口内的“权值”才能被“显示”,其它各“权值”依然存在,但被窗口外的设施隐藏、遮挡。“权值”只能显示一个“权值”,只有“态权”结合,才能完整表达这里的意义。这里的“显示”和“不显示”和“有效”“无效”,“作用”和“无作用”,“激活”和“未激活”等信息类似,具有相同的意义。

抽出来的一位本位位权节点排列,明显的符合逆向神经网络神经单元属性。具备1×10矩阵单元属性。所有的神经网络表达都是这种“态权”信息结构。

这样看来,“位权信息”就是神经网络单元信息,同时可见,神经网络单元信息很早以前就已得到广泛的运用,就是无人关注罢了。

2:位权量化器

位权量化器就是把模拟信息映射成空间网络节点信息的器件。由此获得逆向神经网络计算机具备处理模拟信息的能力。

人工神经元

逆向神经单元“态权”信息架构

由于神经网络单元与现有的人工神经元信息流动方向不同,处理方法亦不同(人工神经元是把不同节点的权重输入归一化处理,形成一个需要的输出;在这里我们所说的神经元是把一个模拟的输入信息离散成不同权重的空间节点输出),由于这两种神经元信息处理方向不同,按神经网络概念建立的先后次序,之前的称为“神经网络”,所以我们的神经网络单元就称为“逆向神经网络单元”。

位权量化器是把模拟信息转变为逆向神经网络单元信息的器件,转换方法为:用已经设置好的信息“幅度模型”去测量模拟信息,模拟信息的输入幅度落入那个幅度区间,该区间的输出便输出一个二值脉冲,通常一个“幅度模型”需要几个“幅度模型”区间,并且和进位制关联,二进制需两个“幅度模型”区间,三进制需三个“幅度模型”区间…….十进制用十个“幅度模型”区间等,一个“幅度模型”区间对应一个二值输出节点,这样三个“幅度模型”区间有三个二值输出节点,四个“幅度模型”区间有四个二值输出节点…….十个“幅度模型”区间有十个二值输出节点。这样,多个二值状态输出的节点在空间的分布,就演变为含进位制的多值态权信息组合,用二值状态判断这个节点有无输出,用有输出节点的分布位置表示进位制内的某一个值。这就构成一个节点的状态输出有两层含义,一个是显现的、实际运行的二值状态信息,一个是隐含的端子位置编号信息,二值状态有两个值,称为“态值”,隐含的节点位置编号称之为“权值”,权值只有一个值、是单值信息,这就组成了“量化逻辑”所述的“态权”信息架构。之前的转换过程全程与时钟无关,而转换完的二值输出节点组合。便受时钟支配,衡量二值多节点输出的多值信息,是以空间多输出节点组为单元,一个时钟周期下,这一组空间输出节点上的输出表示一个多值信息,空间节点组上的各状态输出不能拆分。组中所有节点的二态输出为一个神经网络信息单元,组中一个凸出的或凹陷的脉冲输出节点位置信息就是这一组神经网络信息单元的权值输出。凸出或凹陷的脉冲输出就是“状态”,有“状态”输出的节点位置编号就是“权值”。实现这种功能的电路是专利

除了位权量化器之外,还有获得逆向神经网络节点信息单元的其它方法。

1:译码器

这个电路大家都熟悉,译码器的输出实际是标准的神经网络单元,你总不能说译码器的输出是二进制信息吧,那是你只看到单节点的门输出关系; 如果你看到的是十进制输出,那你只是全局整体的对全部输出节点的综合评判;凡是片面的看待译码器的输出得不到完整的结论,只有完整的看待和理解译码器的输出,才能正确判断译码器输出的“态”“权”属性,译码器的这种单节点看是二值逻辑,整体看是多进制及十进制的特性,是典型的“态权”信息架构,二值输出为“态”,十进制输出为“权”,“态值”为载体信息,“权值”为映射信息,只有把“权值”映射到“态值”之上,才能完整的表达这种“态权”信息输出,这种既非纯“态”又非纯“权”的信息架构,即是逆向神经元所具备的属性。于是我们称其为逆向神经网络单元电路输出。详细的分析理解我就不多说了。

把译码器的输出及单刀多掷开关的输出定义为神经网络单元信息,可能会有争议,但这是无关紧要的,重要的的是利用神经网络实现十进制及其以上的各种进位的制数值运算,弥补二值计算机的不足才是王道,称谓有争议可以变更。

2:单刀多掷开关

在单刀多掷开关的刀上接入固定电压之电源,多个掷上的电压输出组合就是逆向神经网络单元。这里不在详述。

3:逆向神经网络的数字运算方法

所谓阵列运算、多值晶体管运算,其实都是逆向神经网络单元的分层运算和分形连接,是一种固定空间逆向神经网络硬件布局,所有的运算方法均被逆向神经网络连接所代替,所有的运算信息均被逆向神经网络连接结构存储,所有的运算结果均被逆向神经网络连接保存,真实的运算过程,就是用输入的逆向神经网络信息,对事先构建的空间网络布局、连接、通路的激活并输出,只需消耗一个时钟周期即可完成运算。

所有的运算早已在硬件制造时按运算类型、运算结果“对应”连接好的空间逆向神经网络网络硬件布局,运算过程只是用逆向神经网络单元信息“激活”相“对应”的“网络连接通道”而得到答案的输出过程。

上图所示是逆向神经网络计算机进位分形乘法器的网络连接图,这里“分形”连接所指的是对逻辑运算的各输出节点的“标记”用“分形”手段把进位和本位分离,分别连接到各自的不同属性的节点,产生不同属性的节点输出。分形手段同样适用于算法分形,例如:一个“标记”节点可分形为加法运算、减法运算、乘法运算、取大取小逻辑运算等等各种类型的运算。这也就是专利申请“赋意分形算法电路”的核心所在。所谓的阵列式运算,多值晶体管型运算等,都是事先对逆向神经网络架构的布局设计名称。

矩阵交运算是可以用“逻辑与门”组成硬件逻辑矩阵,用一个逆向神经网络单元作为行矩阵,用另一个逆向神经网络单元为列矩阵,矩阵乘积为N×N方阵,方阵个输出组成标记输出阵列,这种矩阵输出的标记信息,既可作为加法运算、减法运算、乘法运算、取大取小逻辑运算等等各种类型的运算分形输入信息,又可以是指令控制、地址分配、过程控制等等系列操作的控制信息,这里就不远说了。

4.逆向神经网络运算网络搭建和连接方法

十进制逆向神经网络计算机的核心,是用现有硬件搭建网络运算系统,构建网络的过程是互相网联、决策、判断、选择确定的过程。第一,网络运算类型选择,第二,依赖与第一的决策,选择逻辑运算硬件,也考虑第三第四决策,正确选择硬件属性。第三,依赖于第二的决策,也考虑第四决策,选择信息走向及连接去向,第四,依赖于第一、第二、第三的决策,选择运算方法及运算结果连接节点。所有这些搭建运算网络的方法,可以概括为:“量化赋值”(神经网络单元形成),“逻辑运算”(产生量化标记),“赋意分形”(按之前的选择确定信息走向),“承意连接”(按之前的运算方法、要求、把得到的运算结果连接到对应节点)。这也就是“逆向神经网络”的组网的基本方法。

以八进制加法运算为例说明这种组网方法。第一“量化赋值”,进位制有二进制、三进制、四进制……至无限进制,选择为八进制,选择八进制量化器,得到八进制逆向神经网络信息。有八个空间信息节点,用两路八进制逆向神经网络信息进行加法运算。第二“逻辑运算”,两路信息运算只需要能对两路输入进行逻辑运算的逻辑单元,选二输入“与”门,按照“量化逻辑”全值“与”逻辑的逻辑运算方法,八进制运算需要六十四个二输入与门,组成空间8*8矩阵,产生六十四个“量化标记”,(矩阵交运算)。第三“赋意分形运算”,任何进位制的加法运算都会产生进位,于是就有“本位”和进位之分。(任何一个都数字可以进行加、减、乘、除、取大……等运算,因此又有“算法分形”)。用三态门或二极管都可做分形元件,分形管的选择原则是:信息传递功能,隔离功能,隔离的原因是下一级的连接会在一个节点上有许多个连接构成“线或”,而线或是典型的单值逻辑运算(不允许有不同电平输入)。第四“承意连接”,按之前三步选定进位制式、运算类型、答案类别、和运算关系把分形后的运算输出,分别连接到逆向神经网络单元两类不同的输出节点上。(进位节点2个,本位节点8个)。如此重复128次,便可建立起八进制逆向神经网络加法器的网络骨架。加上输入的两路16条线的搭配组合连接(128次),共有256次的连接操作才能组成运算网络。

我们把本位以及支持矩阵运算单位的硬件组成由一个具有“与”逻辑属性的电路和两个能对输出隔离的三态逻辑电路或二极管逻辑电路构成硬件支持,如下图:

分形的作用前面已经说了,再说隔离电路,因正态网络矩阵不需要二值逻辑的低电平输出,具有二值输出的与逻辑门的低电平输出是多余的,因此需要隔离。下图是用二值逻辑电路组成的“八进制加法运算网络连接方法”。

你可以参照上述图形,也可以设想运算,例如八进制运算4+5=11可以在图中找到Y45与逻辑门,还可以查看该门输入是A是第4线,B是第5线(赋意),输出用二极管分两路(分形),由于是八进制,故一路连接到本位输出线第1线上,另一路连接到输出进位线第1线上(连接)。运算过程:当输入线组中A组第4线是高电平,B组第5线是高电平时,与门Y45开启,与门输出经两个二极管分别连接到输出本位第1线和进位第1线上,故此两条线变成高电平,通过编码电路数显电路,便可显示本位1进位1。就这么简单。

这里的分形仅仅是对“进位”和“本位”的分形,其它算法分形因图形太大,无法公开。

知道逆向神经网络运算的组网过程后,便可以着手搭建实体电路,先从简单入手。逐步深入搭建更大的网络。二进制神经网络单元:一个逆向神经网络单元只有两个空间变量0和1,两个空间节点 , ,和 , 。用一个与门芯片,八只二极管。四个与门Y00,Y01,Y10,Y11按阵列形式分布,八个二极管两个一组分别连接到与门的输出端,作分形管使用。输入逆向神经网络单元信息用两条线表示,两组输入共四条线, , ,和 , 。组成逆向神经网络加法器的输入层,把四个与门的八个输入端进行搭配组合,分别与输入的四条线连接,把四个与门的四个输出端连接分形二极管,一个端子上连接两个二极管正极,八只二极管有八个输出节点,用和输入相同的方法,用四条线表示逆向神经网络输出层,输出依然是 , ,和 , 。不过这里 , ,作为本位输出层, , 作为进位输出层。把Y00门上接的两个二极管按运算结果(0+0=0)分别连接到输出层的本位线 ,进位线b0上。把Y01门上接的两个二极管按运算结果(0+1=1)分别连接到输出层的本位线 ,进位线 上。把Y10门上接的两个二极管按运算结果(1+0=1)分别连接到输出层的本位线 ,进位线 上。把Y11门上接的两个二极管按运算结果(1+1=0进位1)分别连接到输出层的本位线 ,进位线 上。

这样输出层输出的逆向神经网络信息,便就是二值加法输出,喜欢的朋友可以连接一些编码显示部件,展示运算结果。

从上图可以看到,用逆向神经网络组成的加法器,就把单只二极管算作一个元件(实际集成电路是把两只看做一只)只有12只元件,明显的比用二值逻辑建成的28管加法器少16只元件,这也是逆向神经网路所具备的优势。

下面公开一些不同进位制的逆向神经网络加法器的仿真图,大家可以自己体会。喜欢动手的朋友可以制成各种不同进位制的加法器,乘法器、减法器、除法器以及一些工程控制使用的控制器等许多逻辑控制器件。不喜欢动手的朋友,只要会使用电路仿真软件按照下面图形连接,确定参数,可以系数仿真任意进位制的运算。

需要说明一下,关于显示,从人们的生活习惯来说,数学的计算用数字显示最为直观,但是,指示灯显示对逆向神经网络单元来说更为直观,不过没人注意评判这种显示的含义,朋友们不方把一组显示灯当做一个不可分割完整的数据来看待,有灭有亮,互相对比。当你能想到开头所说的内容的话,你应该就明白逆向神经网络单元信息是怎么样的一种信息。其实我们早已司空见惯了。

三进制逆向神经网络加法器,9个与门和18只二极管组成,搭接网络的方法依然是用三进制神经网络信息作为输入层,9个与门按量化逻辑的全与逻辑关系连接起来作为逻辑运算层,9个逻辑门Y0,Y1,Y2…….Y9产生9个标记输出,用两个一组(只有进位和本位)把两二极管正极和标记节点连接,各标记输出点上连接一样,这样产生18个输出。输出层因是三进制,故设立三条线为本位位权线 , , ,设立两条线为进位位权线 , 。输入两路逆向神经网络单元信息 , , ,和 , 。用量化逻辑中搭配组合的方法先搭成逻辑运算部分,然后(赋意)两位三进制进行加法运算,再(分形)加法运算会产生两种不同信息,进位信息,本位信息,之后再(承意连接)如:1+2=3,3已经满值,换成进位和本位两种表答方式,进位为1,本位为0。把一只分形二极管连接到进位1线上,另一只二极管连接到本位0线上……..如此反复依次操作9次,三进制加法运算全部完成,运算网络也搭建起来。

5.多进制逆向神经网络计算机加法器电路展示:

6.多进制逆向神经网络计算机整体架构

由于逻辑思想的不同,对计算机的架构设想有较大差别,二值逻辑思想下计算机内部所有部件都运行在二值状态,所有的不适应设备信息,必须用转换器件转为二值状态,输出也是一样,这样真实的二值计算机实际上是一个封闭运行的自闭系统,无法与自然信息有效衔接,这就使得实现智能化时遇到困难,大量的外部设备能否与计算机配合,将是衡量计算机人工智能关键。

逆向神经网络计算机是按量化逻辑思想设计的机器,除机器内部系统运行的信息是多进制信息之外,还延长了计算机汲取信息的能力,自然信息本身就是多值化的(不是人为多值化),如果能让计算机运行信息和自然信息协调一致,那么,计算机人工智能就会向前迈进一大步。这也是我们所期待的。下图是逆向神经网络计算机的一种结构设想,有兴趣的朋友可以仔细阅读。有一种捷径,利用译码器的输出作为逆向神经网络计算机的输入输出信息,在目前来看可以兼容当前大量使用的软件系统,但其本质依然和二进制计算机一样,只不过计算机内部运行采用多值信息罢了。

二进制计算机和多进制及十进制逆向神经网络计算机信息处理流程结构方法比较

至于其它进位制的电路图我就不一一贴出了,留给网友自己用我提供的方法组建。

7.多进制逆向神经网络计算机效益

关于运算速度

逆向神经网络计算机其运行关键部件是简单逻辑门和二极管,是高度并行的网络连接布局,信息从输入层到输出层只经历四只管子(包括进位运算),任何一种运算只需启动这四只管子组成的串联连接通路,四只管子5个节点的电压建立时间,就是机器运算的速度。如果要用时间来衡量,所有的运算只用一个时钟周期(不含当次运算依赖上次运算的结果的运算要求)。因此,提高工艺水平,任然会对速度有极大的提高。

关于能量消耗

逆向神经网络计算机因其是高度并行的网络架构,其一位运算网络运行的逻辑部件只有两只场效应三极管和四只二极管,能量消耗主要是传输过程的能量损失,工作的管子不需要电源,只从输入信息中汲取电力,所以,大量的元件都处于无电的静默状态,这样节约的电力是无可比拟的。进位制越高越省电,是逆向神经网络计算机的巨大特征。这里原因很简单,因为逆向神经网络计算机,无论是二进制还是三进制还是四进制…..十进制一百进位制….。运算器运行的是依照逆向神经网络信息单元的信息运转,一个逆向神经网络单元中只有一个节点是有效信息,所以在众多的网络连接中,激活的只有一路网络信息通道,也只有此一路信息通道上的元件才消耗能量,并且只是传输型消耗,损失甚微,用逆向神经网络单元的信息输入能量,完全可以满足通道上的传输损耗。这样,无论是十进位制,还是百进位制,还是千进位制,尽管组成网络的元件数量庞大,但只有一路四只管子才消耗能量。其它元件静默,静默意味着不加电,这就是进位制越高越省电的原因。这种情况,网友们可从前面图中十进制逆向神经网络加法器中我所标注的运算线中看到,网友们也可以换一种输入数字,你看可以打通那些通道,关闭那些通道,关闭了多少通道。关闭通道处于一种什么状态。

关于运算能力

逆向神经网络十进制信息不能用二进制信息单位“比特”来表示,因为两种信息表达架构不同,进位制不同,关键是这两种信息来源于不同的“逻辑关系”,故此有着巨大的差别。按量化逻辑的基本思想,十进制及多进制神经网络信息是空间分布的多个节点信息组成一个整体信息,且这种结构是不能分割的,每一个逆向神经网络信息是一组多个节点的单元信息,不是孤立的单节点信息。因此用“簇”这种象征着空间“一捆”“多条”汇聚到一起的词,来表达逆向神经网络单元信息的信息量最为贴切。这样,一簇二进制信息有两个空间变量

T=a0,a1。一簇三进制信息有三个空间变量T=a0,a1,a2。一簇四……..。再由于逆向神经网络单元信息的结构(因是空间信息,于是有结构)多数节点处于静默状态,唯一有一个节点信息处于“凸出”或“凹陷”的表达方法,于是任意进位制的逆向神经网络信息实质有效的信息只有一个,表现在一个节点上,在不同的时间间隔里,在各个节点上轮流的出现“有效”状态,这和当今二值逻辑信息差别甚远。

逆向神经网络计算机信息量值“簇”和二进制计算机信息量值“bit”之间的关系。由于“簇”和进位制相关,所以,不同的进位制所表示的“簇”信息和bit的关系是不同的。

二进位制的 一“簇” = log2(2)=1(bit)

三进位制的 一“簇” = log2(3)=1.58(bit)

四进位制的 一“簇” = log2(4)=2(bit)

....... ........

十进位制的 一“簇” = log2(10)=3.32(bit)

100进位制的 一“簇” = log2(100)=6.65(bit)

1000进位制的 一“簇”= log2(1000)=9.96(bit)

一簇十进制信息相当于log2(10)=lg(10)/lg(2)=1/lg(2)=3.321928bit二进制信息,因此一位十进制数相当于3.321928位二进制数,一台10位十进制逆向神经网络计算机相当于一台33.21928位的二进制计算机。

一台 3进位制的逆向神经网络 一位计算机相当于一台1.59位的二进制计算机

一台 4进位制的逆向神经网络 一位计算机相当于一台2 位的二进制计算机

…… ……

一台 10进位制的逆向神经网络 一位计算机相当于一台3.32位的二进制计算机

一台 100进位制的逆向神经网络 一位计算机相当于一台6.65位的二进制计算机

一台1000进位制的逆向神经网络 一位计算机相当于一台9.96位的二进制计算机

此即为多进制计算机的运算能力。

写在最后的话:

逆向神经网络计算机是把人类运算能力附着在空间网络上进行运算的计算方法,在硬件使用上并无特殊结构,依然使用具备自然属性的二值逻辑电路,不过从理论结构上而言,空间网络的建立依然要突破二值逻辑思想的诸多限制,改变人类对自然事物的认知,才能实现有意义的逻辑理论。

本解密文件,深刻的揭示了胡五生关于多进制及十进制逆向神经网络计算机的神秘面纱,其实都是一些极为简单的逻辑组合。因胡五生专利涉及范围较广,大多数为计算机领域,围绕着计算机的组成而申请的专利技术保护,如:运算器类,控制器类,寄存器类,总线收发控制类,移位、地址控制类,目的是想要建立起比较完整的实现新型计算机硬件。欢迎广大朋友研发升级,我希望广大网友能在我研发的基础上,有更高的突破,但应当注意研发的引用,但凡涉及到我专利的技术,不能侵权,更不能据为己有并大肆宣传,干扰市场运作。

如有侵权,必定严惩。

本文所说的专利在“天水蓝灵”的微博里边,需要的朋友可进一步查看

甘肃省天水市 胡五生


https://m.toutiao.com/is/ewK7jP9/ 

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多