关于概率极限问题
论坛上有很多人对这个问题的争议
包括对我不全面回贴的不理解
那么在此我就彻底解答这个问题,以后不在论坛回复此类问题!
当然这只是我一家之言就当胡说,在此只是回应其它贴中的不理解
有不同的思路及见解可以在“思路交流群”里交流
第一、极限是动态增长且有边际
极限随着样本数据的递增而增长,比如说100组25码数据在100期内最长极限是连错10期,那100万组25码数据的极限可能是连错20期,反之固定100组25码数据,在100万期内是连错20期,差不多是一样的(这里只是举个例子)
第二、极限只是一个接近值,不可以准确计算。
计算极限数是为了更好的参考,更好地选择必然发生的大概率事件,博才公式不是万能,只是可以用来评估和筛选大概率数据,更好地统计。
第三、随机数据有个正常的缺陷,绝对不能拿随机数据的极限追极限。
随机数据有个正常的缺陷,就是大样本小样本的问题,比如100组25码数据在100期内最长极限10期,也就是说其中有一组25码数据在100期内至多连错10期,那么这组数据可不可以追极限呢?也就是说第101期这组数据是不是一定会对呢?答案是不一定,有可能101期、102期、103期还连错,因为连错10期的这组数据又正好在1000组,10000组,100万组的数据中,那么就有可能连错20期。
第四、公式也是组合,是一种随机的有重复的组合
公式的本身也是一种组合,有一种有重复数据的组合,产生的公式数量就是参数的组合数量,比如选15个参数的三项公式,产生的公式群就是15选3的组合元素,数量就是15选3,可以计算出来就是455组,但由于软件会屏蔽一些显形公式,实际上没有那么多,但公式的特性决定了这种数据是有重复的。公式的重复性影响的数据的稳定和评估。所以公式是一种有潜在缺陷的组合
第五、数据的全组合理论上可以解决公式及随机数的种种缺陷
数据全组合后是固定的全样本,而且是不重复的,克服了随机数大样本小样本的问题,也解决了公式重复性的问题,而且可以用上博才公式等众多理论公式进行评估数据的可行性,最终筛选出大概率数据。当然这种全组合只是理论上的,因为全组合的数据太多而且不重复,如49选25的组合就有63205303218876组,呵呵是个天文数字。
第六、极限看起很美但不是万能的也十分危险。
极限只是一个筛选数据时的参照对象,而且这种参照具有极高的风险,因为极限具有极高的潜在危险,如果你对极限研究得不够深入,不了解极限涉及到的一些影响因素的正确理解,盲目跟极限的风险极大。难怪有很多盲目跟极限的人,死了很多人,最典型的就是连开7、8期单双,连开9、10期大小时,曾经有一年的“红波事件”红波连续19期不出,这个事件给那些盲目跟极限的人一个警示。其实你只要稍微懂点极限知识,用博才公式计算一下极限的可能性和风险系数就很清楚了。
第七、如果你要用极限选择模二的极限数据较好,这个问题留给你们自己去解答,在这里不作解释。