HP49(119)。。。
-
我可能晚了两年,但我很高兴地得知,其他人认为c251已经接近了专职志愿者。 看到这个数字被分解是令人惊讶的。 我一直在使用CADO-NFS进行小于200位数的稳定较大因子分解,并取得了一定的成功,我正在努力提高我对GNFS参数和大小的理解。 c251上的GNFS肯定不在普通人的范围内。 即使是我们的常驻超级大国瑞安·普罗珀也无法考虑到这一点,他曾经有500-1000个核可用。 矩阵是主要障碍; 如果我们的志愿者团队在一个相当大的集群上投入时间,那么我们就有机会。 I=17的CADO应该足以进行筛选,但这需要每个进程大约30GB的内存!
您应该看看这个子论坛中的CADO-NFS线程,其中我们讨论了对默认CADO-NFS-params文件的改进。 如果你在做160多位数的工作,我真的很想从你的跑步中看到计时数据和参数选择。
注释 -
-
c251上的GNFS肯定不在普通人的范围内。 即使是我们的常驻超级大国瑞安·普罗珀也无法考虑到这一点,他曾经有500-1000个核可用。 矩阵是主要障碍; 如果我们的志愿者团队在一个相当大的集群上投入时间,那么我们就有机会。 I=17的CADO应该足以进行筛选,但这需要每个进程大约30GB的内存! 我想我对之前估计的c251只需要(!)10000个核心年感到有点兴奋。 我对HP49着迷了很长一段时间。
当然,每个进程30GB将限制一个人找到运行机器并使用所有内核的能力。
您应该看看这个子论坛中的CADO-NFS线程,其中我们讨论了对默认CADO-NFS-params文件的改进。 如果你在做160多位数的工作,我真的很想从你的跑步中看到计时数据和参数选择。 我一直在试图了解RSA-768和RSA-220因子分解中的时间去向,所以当然我很乐意分享我拥有的计时数据,比如它是什么,因为在一次不间断的运行中,只分解了一个或两个数字,不需要一些干预或重新启动。
我对179-digit N的最新因子分解现在正在运行mksol,大约一周后就会完成,然后我将更新CADO-NFS线程。
也许这里要采取的另一种方法是讨论如何为CADO-NFS编写c250参数文件; 我以前曾使用过包含的c270参数文件,并正在学习参数之间的关系,但我仍然不完全理解它。
注释 -
-
看看这个关于M1277的帖子 http://mersenneforum.org/showthread….523#post487523 用于讨论排序大小相似的SNFS作业的参数选择。 在CADO中进行测试是一件痛苦的事情,因为必须使用整个参数列表作为参数来调用LAS; 我计划弄清楚如何使用GNFS-180来实现这一点,我将考虑CADO。 具体来说,我想看看CADO是否更喜欢这种大小的3个大素数,如果是这样,那么什么样的MFBR最有效。
注释 -
-
CADO每台机器只需要一个进程,因为它可以运行多线程。 由于有新用户表示对HP49.c251上的ECM感兴趣,因此恢复了此线程。
CADO确实运行多线程,但每个进程的线程数由服务器固定。 如果筛分机池是相似的,那没问题,但这种可能性有多大? 也许我们可以在请求开发人员将其作为客户端标志而不是由服务器修复时找到乐趣。
结果表明,CADO上的I=17需要50GB以上的内存才能完成这种大小的作业。 I=16对C207使用10GB,rlim=268M,alim=535M; fivemack报告称,在C193鱼上进行测试时,I=17为40GB。 对于c251来说,lim的值要高得多,所以每个进程大约50-60GB是一个合理的估计; 如果需要,我们可以选择lim,使内存使用保持在60GB,以适合64GB的插槽。
I=16应该在某种程度上可以用于此工作,每个进程可能需要16-20GB。 虽然每个关系可能比I=17慢得多,但可用机器的巨大差异可能会弥补这一点; 然而,必须通过测试对产量进行彻底调查,以确定I=16是否能达到目的; 我的意思是,如果我们需要1000亿美元的关系,那么高达20G的Q仍然需要5倍的收益率才能实现! 人们想知道Q值能有多高。。。
通过从RSA768向LP添加1位进行大胆猜测,我们可能会尝试41位大素数,20TB存储100G原始关系,512GB内存(更多?)来处理后处理? Eek!
注释 -
-
由于有新用户表示对HP49.c251上的ECM感兴趣,因此恢复了此线程。
CADO确实运行多线程,但每个进程的线程数由服务器固定。 如果筛分机池是相似的,那没问题,但这种可能性有多大? 也许我们可以在请求开发人员将其作为客户端标志而不是由服务器修复时找到乐趣。
结果表明,CADO上的I=17需要50GB以上的内存才能完成这种大小的作业。 I=16对C207使用10GB,rlim=268M,alim=535M; fivemack报告称,在C193鱼上进行测试时,I=17为40GB。 对于c251来说,lim的值要高得多,所以每个进程大约50-60GB是一个合理的估计; 如果需要,我们可以选择lim,将内存使用量保持在60GB,以适合64GB的插槽。
I=16应该在某种程度上可以用于此工作,每个进程可能需要16-20GB。 虽然每个关系可能比I=17慢得多,但可用机器的巨大差异可能会弥补这一点; 然而,必须通过测试对产量进行彻底调查,以确定I=16是否能达到目的; 我的意思是,如果我们需要1000亿美元的关系,那么高达20G的Q仍然需要5倍的收益率才能实现! 人们想知道Q值能有多高。。。
通过从RSA768向LP添加1位进行大胆猜测,我们可能会尝试41位大素数,20TB存储100G原始关系,512GB内存(更多?)来处理后处理? 咦! 距离RSA-768已经有一段时间了,但我当然不需要像30G或50G这样的东西。 IIRC更像是6-8G。 原因:我在一个很小的筛分区域以很高的q值工作,速度很慢,但重要的是,速度大于零。 大男孩们使用大内存机器以低q值开采富矿区。
注释 -
-
我做了一些模拟
https://github.com/sethtroisi/OEIS/b.…imeStats.ipynb
和
https://github.com/sethtroisi/OEIS/b.…e_this_step.py
代码: 导入gmpy2 从tqdm导入tqdm 模拟=5000 #prefix=“71741” #来自HP的c152(3466) #cXXX=256952431235352598584196927198477674720128105647895004542177441432959481597410833215817042687488624512448705868902338875418742928213371835049836031 prefix=“7316249” #HP提供的c251(49) cXXX=2663309092679226343673690463053152047976874284943509712775468221683954382507914865091802754781277959346990813158960697697709485852830934711978704681639399323263270697821325581691729538773177362626262623659803670367036350973766877206520868306177029027763 small_prime=20 断言cXXX>10**(2*small_prime+10) pXX=gmpy2.next_prime(10**small_prime) is_prime=0 对于_ in tqdm(范围(模拟)): #模拟将cXXX分解为pXX*pOther pXX=整数(1.001*pXX) p其他=cXXX//pXX #使素数具有素数 pXX=gmpy2.next_prime(pXX) pOther=gmpy2.next_prime(pOther) 步骤=前缀+字符串(pXX)+字符串(p其他) 如果gmpy2.is_prime(int(step)): is_prime+=1 print(“以{}/{}={:.2f}%的模拟完成此步骤”.format( is_prime,SIMULATIONS,100*is_prime/SIMULATIONS)) 这表明HP49结束这一步的概率很低(约0.5%),这略高于随机奇数约260位(约1/600)的概率。 可能是因为与数字和有关的事情。。。
注释 -
-
另一次更新(2019年10月)。 自2017年11月以来,我一直没有处理过这个数字。 我能够使用启用CUDA的GMP-ecm在B1=3e9下运行大量额外的ecm曲线。 以下是我在这个数字上所做的所有工作的明细:
代码: HP49步骤119 c251: 找到n位数因子的预期曲线数: 数字35 40 45 50 55 60 65 70 75 -------------------------------------------------------------------------------------------------------- B1=11e6 138 788 5208 39497 336066 3167410 3.2e+007 3.7e+008 B1=43e6 61 278 1459 8704 57844 419970 3346252 2.9e+007 B1=260e6 23 82 335 1521 7650 42057 250476 1603736 B1=1 e9 14 154 599 2553 11843 59619 319570 2089806 B1=3e9 11 31 96 335 1279 5292 23661 112329 565999 B1=3e9 11 31 99 344 1315 5446 24234 115138 580561(最大值4096) 迄今为止完成的曲线数量及其等效t级: 12000@11e6=86.956 x 15.228 x 2.304 x 0.303 x 0.035 x 0.003 x 18000@43e6=295.081 x 64.748 x 12.337 x 2.068 x 0.311 x 0.042 x 0.005 x 90000@260e6=3913.043 x 1097.560 x 268.656 x 59.171 x 11.764 x 2.139 x 0.359 x 0.056 x 120000@1e9=8571.428 x 2727.272 x 779.220 x 200.333 x 47.003 x 10.132 x 2.012 x 0.375 x 0.057 x 16000@3e9(4克)=1454.545 x 516.129 x 161.616 x 46.511 x 12.167 x 2.937 x 0.660 x 0.138 x 0.027 x 162000@3e9=14727.27 x 5225.806 x 1687.500 x 483.582 x 126.661 x 30.612 x 6.846 x 1.442 x 0.286 x ------------------------------------------------------------------------------------------------------- 29048.323 x 9646.743 x 2911.633 x 791.968 x 197.941 x 45.865 x 9.882 x 2.011 x 0.370 x 我忘记了什么时候生成了所需曲线计数表,但这些是我将用于此分析的数字。 因此,根据e^(-x)规则,我们可以说55+位数水平的因子缺失的概率是:
代码: 55位数字:e^(-197.941)~=1.0847e-86 60位数字:e^(-45.865)~=1.2052e-20 65位:e^(-9.882)~=5.1086e-5=0.000051086=0.005%的概率错过65位因子 70位数字:e^(-2.011)~=0.1338=13.38%的概率丢失70位数字因子 75位:e^(-0.370)~=0.6907=丢失75位因子的概率为69.07% 在我们尝试转到GNFS之前,最好完成1*t75或2*t75,甚至1*t80。 GNFS将占用大量资源,很难找到计算能力和时间。 因此,(在接下来的几年中)对这个因子分解做出贡献的最佳方法是对这个数字运行额外的ecm。
注释 -