HP49(119)。。。

折叠
X
 
  • 过滤器
  • 时间
  • 显示
全部清除
新员额
  • 西尔曼
    被蒙蔽了!
    • 2003年5月
    • 12271

    最初发布者VBCurtis公司 查看帖子
    卡洛斯-
    5f筛上的96位mfbr/mfba限制是否已解除?我没有想到,除了CADO之外,其他任何东西都能胜任这份工作。

    编辑:噢,你怎么从拉西耶夫那里得到17e或18e?
    我用ggnfs进行rsa768筛分。

    注释

    • 陀螺
      • 2011年10月
      • 5309

      最初发布者西尔曼 查看帖子
      我用ggnfs进行rsa768筛分。
      那很好。

      与此同时,这有点跑题,但如果我的计算正确的话,就把它用于BOINCNFS@主页第页,在过去24小时内,几乎有3200个内核连接到NFS@主页网格运行5f筛。每个内核相当于一个i7-3630QM CPU@3.20GHz内核。
      计算基于我的笔记本电脑,估计处理一个5f筛子任务需要一个小时。速度更快的计算机可以在2500秒或更少的时间内完成任务。过去24小时内完成了80k 5f项任务。让我们看看接下来几天的挑战,因为核心数据可能被高估了,会给客户加油。
      上次编辑人陀螺;2016-10-07, 11:11.

      注释

      • VBCurtis公司
        • 2005年2月
        • 6657

        最初发布者VBCurtis公司 查看帖子
        我将捐赠数百条ECM曲线,因为我已经厌倦了M1277 ECM的工作。
        在带有-maxmem 13000的16GB机器上使用ECM-7.0.1进行了一些测试:
        通过比较4.2e9、6e9和7e9,B1=6e9将完成t70的预期时间减至最少。当B1=6e9时,B2增加30%进一步缩短了t70时间,更高的B2界限仍有待测试。

        我现在正在努力寻找在这台16GB机器上使t75时间最小化的界限。我还有两台32GB的机器可以用来查看将maxmem加倍(从而将k四分之一)会产生什么样的最小效果。在每天不到一条曲线的情况下,此测试可能需要一段时间!

        注释

        • 努克斯
          • 2018年7月
          • 22

          最初发布者幽灵X 查看帖子
          最近有人问我关于HP49 119 c251的状态,我想向大家更新。我还想问一下,论坛上是否有人能帮我用GNFS解决这个问题?
          我可能晚了两年,但我很高兴地得知,其他人认为c251已经接近了专职志愿者。看到这个数字被分解是令人惊讶的。

          我一直在使用CADO-NFS进行小于200位数的稳定较大因子分解,并取得了一定的成功,我正在努力提高我对GNFS参数和大小的理解。

          注释

          • VBCurtis公司
            • 2005年2月
            • 6657

            最初发布者努克斯 查看帖子
            我可能晚了两年,但我很高兴地得知,其他人认为c251已经接近了专职志愿者。看到这个数字被分解是令人惊讶的。
            我一直在使用CADO-NFS进行小于200位数的稳定较大因子分解,并取得了一定的成功,我正在努力提高我对GNFS参数和大小的理解。
            c251上的GNFS肯定不在普通人的范围内。即使是我们的常驻超级大国瑞安·普罗珀也无法考虑到这一点,他曾经有500-1000个核可用。矩阵是主要障碍;如果我们的志愿者团队在一个相当大的集群上投入时间,那么我们就有机会。I=17的CADO应该足以进行筛选,但这需要每个进程大约30GB的内存!

            您应该看看这个子论坛中的CADO-NFS线程,其中我们讨论了对默认CADO-NFS-params文件的改进。如果你在做160多位数的工作,我真的很想从你的跑步中看到计时数据和参数选择。

            注释

            • 努克斯
              • 2018年7月
              • 22

              最初发布者VBCurtis公司 查看帖子
              c251上的GNFS肯定不在普通人的范围内。即使是我们的常驻超级大国瑞安·普罗珀也无法考虑到这一点,他曾经有500-1000个核可用。矩阵是主要障碍;如果我们的志愿者团队在一个相当大的集群上投入时间,那么我们就有机会。I=17的CADO应该足以进行筛选,但这需要每个进程大约30GB的内存!
              我想我对之前估计的c251只需要(!)10000个核心年感到有点兴奋。我对HP49着迷了很长一段时间。

              当然,每个进程30GB将限制一个人找到运行机器并使用所有内核的能力。

              最初发布者VBCurtis公司 查看帖子
              您应该看看这个子论坛中的CADO-NFS线程,其中我们讨论了对默认CADO-NFS-params文件的改进。如果你在做160多位数的工作,我真的很想从你的跑步中看到计时数据和参数选择。
              我一直在试图了解RSA-768和RSA-220因子分解中的时间去向,所以当然我很乐意分享我拥有的计时数据,比如它是什么,因为在一次不间断的运行中,只分解了一个或两个数字,不需要一些干预或重新启动。

              我对179-digit N的最新因子分解现在正在运行mksol,大约一周后就会完成,然后我将更新CADO-NFS线程。

              也许这里要采取的另一种方法是讨论如何为CADO-NFS编写c250参数文件;我以前曾使用过包含的c270参数文件,并正在学习参数之间的关系,但我仍然不完全理解它。

              注释

              • VBCurtis公司
                • 2005年2月
                • 6657

                看看这个关于M1277的帖子http://mersenneforum.org/showthread….523#post487523用于讨论排序大小相似的SNFS作业的参数选择。在CADO中进行测试是一件痛苦的事情,因为必须使用整个参数列表作为参数来调用LAS;我计划弄清楚如何使用GNFS-180来实现这一点,我将考虑CADO。具体来说,我想看看CADO是否更喜欢这种大小的3个大素数,如果是这样,那么什么样的MFBR最有效。

                注释

                • 亨利兹
                  叫我亨利就行了
                  • 2007年9月
                  • 6350

                  CADO每台机器只需要一个进程,因为它可以运行多线程。

                  注释

                  • VBCurtis公司
                    • 2005年2月
                    • 6657

                    最初发布者亨利兹 查看帖子
                    CADO每台机器只需要一个进程,因为它可以运行多线程。
                    由于有新用户表示对HP49.c251上的ECM感兴趣,因此恢复了此线程。

                    CADO确实运行多线程,但每个进程的线程数由服务器固定。如果筛分机池是相似的,那没问题,但这种可能性有多大?也许我们可以在请求开发人员将其作为客户端标志而不是由服务器修复时找到乐趣。

                    结果表明,CADO上的I=17需要50GB以上的内存才能完成这种大小的作业。I=16对C207使用10GB,rlim=268M,alim=535M;fivemack报告称,在C193鱼上进行测试时,I=17为40GB。对于c251来说,lim的值要高得多,所以每个进程大约50-60GB是一个合理的估计;如果需要,我们可以选择lim,使内存使用保持在60GB,以适合64GB的插槽。

                    I=16应该在某种程度上可以用于此工作,每个进程可能需要16-20GB。虽然每个关系可能比I=17慢得多,但可用机器的巨大差异可能会弥补这一点;然而,必须通过测试对产量进行彻底调查,以确定I=16是否能达到目的;我的意思是,如果我们需要1000亿美元的关系,那么高达20G的Q仍然需要5倍的收益率才能实现!人们想知道Q值能有多高。。。

                    通过从RSA768向LP添加1位进行大胆猜测,我们可能会尝试41位大素数,20TB存储100G原始关系,512GB内存(更多?)来处理后处理?Eek!

                    注释

                    • 西尔曼
                      被蒙蔽了!
                      • 2003年5月
                      • 12271

                      最初发布者VBCurtis公司 查看帖子
                      由于有新用户表示对HP49.c251上的ECM感兴趣,因此恢复了此线程。

                      CADO确实运行多线程,但每个进程的线程数由服务器固定。如果筛分机池是相似的,那没问题,但这种可能性有多大?也许我们可以在请求开发人员将其作为客户端标志而不是由服务器修复时找到乐趣。

                      结果表明,CADO上的I=17需要50GB以上的内存才能完成这种大小的作业。I=16对C207使用10GB,rlim=268M,alim=535M;fivemack报告称,在C193鱼上进行测试时,I=17为40GB。对于c251来说,lim的值要高得多,所以每个进程大约50-60GB是一个合理的估计;如果需要,我们可以选择lim,将内存使用量保持在60GB,以适合64GB的插槽。

                      I=16应该在某种程度上可以用于此工作,每个进程可能需要16-20GB。虽然每个关系可能比I=17慢得多,但可用机器的巨大差异可能会弥补这一点;然而,必须通过测试对产量进行彻底调查,以确定I=16是否能达到目的;我的意思是,如果我们需要1000亿美元的关系,那么高达20G的Q仍然需要5倍的收益率才能实现!人们想知道Q值能有多高。。。

                      通过从RSA768向LP添加1位进行大胆猜测,我们可能会尝试41位大素数,20TB存储100G原始关系,512GB内存(更多?)来处理后处理?咦!
                      距离RSA-768已经有一段时间了,但我当然不需要像30G或50G这样的东西。IIRC更像是6-8G。原因:我在一个很小的筛分区域以很高的q值工作,速度很慢,但重要的是,速度大于零。大男孩们使用大内存机器以低q值开采富矿区。

                      注释

                      • SethTro公司
                        • 2019年4月
                        • 578

                        我做了一些模拟

                        https://github.com/sethtroisi/OEIS/b.…imeStats.ipynb



                        https://github.com/sethtroisi/OEIS/b.…e_this_step.py

                        代码:
                        导入gmpy2从tqdm导入tqdm模拟=5000#prefix=“71741”#来自HP的c152(3466)#cXXX=256952431235352598584196927198477674720128105647895004542177441432959481597410833215817042687488624512448705868902338875418742928213371835049836031prefix=“7316249”#HP提供的c251(49)cXXX=2663309092679226343673690463053152047976874284943509712775468221683954382507914865091802754781277959346990813158960697697709485852830934711978704681639399323263270697821325581691729538773177362626262623659803670367036350973766877206520868306177029027763small_prime=20断言cXXX>10**(2*small_prime+10)pXX=gmpy2.next_prime(10**small_prime)is_prime=0对于_ in tqdm(范围(模拟)):#模拟将cXXX分解为pXX*pOtherpXX=整数(1.001*pXX)p其他=cXXX//pXX#使素数具有素数pXX=gmpy2.next_prime(pXX)pOther=gmpy2.next_prime(pOther)步骤=前缀+字符串(pXX)+字符串(p其他)如果gmpy2.is_prime(int(step)):is_prime+=1print(“以{}/{}={:.2f}%的模拟完成此步骤”.format(is_prime,SIMULATIONS,100*is_prime/SIMULATIONS))
                        这表明HP49结束这一步的概率很低(约0.5%),这略高于随机奇数约260位(约1/600)的概率。可能是因为与数字和有关的事情。。。

                        注释

                        • 幽灵X
                          • 2006年3月
                          • 585

                          另一次更新(2019年10月)。自2017年11月以来,我一直没有处理过这个数字。我能够使用启用CUDA的GMP-ecm在B1=3e9下运行大量额外的ecm曲线。以下是我在这个数字上所做的所有工作的明细:
                          代码:
                          HP49步骤119 c251:找到n位数因子的预期曲线数:数字35 40 45 50 55 60 65 70 75--------------------------------------------------------------------------------------------------------B1=11e6 138 788 5208 39497 336066 3167410 3.2e+007 3.7e+008B1=43e6 61 278 1459 8704 57844 419970 3346252 2.9e+007B1=260e6 23 82 335 1521 7650 42057 250476 1603736B1=1 e9 14 154 599 2553 11843 59619 319570 2089806B1=3e9 11 31 96 335 1279 5292 23661 112329 565999B1=3e9 11 31 99 344 1315 5446 24234 115138 580561(最大值4096)迄今为止完成的曲线数量及其等效t级:12000@11e6=86.956 x 15.228 x 2.304 x 0.303 x 0.035 x 0.003 x18000@43e6=295.081 x 64.748 x 12.337 x 2.068 x 0.311 x 0.042 x 0.005 x90000@260e6=3913.043 x 1097.560 x 268.656 x 59.171 x 11.764 x 2.139 x 0.359 x 0.056 x120000@1e9=8571.428 x 2727.272 x 779.220 x 200.333 x 47.003 x 10.132 x 2.012 x 0.375 x 0.057 x16000@3e9(4克)=1454.545 x 516.129 x 161.616 x 46.511 x 12.167 x 2.937 x 0.660 x 0.138 x 0.027 x162000@3e9=14727.27 x 5225.806 x 1687.500 x 483.582 x 126.661 x 30.612 x 6.846 x 1.442 x 0.286 x-------------------------------------------------------------------------------------------------------29048.323 x 9646.743 x 2911.633 x 791.968 x 197.941 x 45.865 x 9.882 x 2.011 x 0.370 x
                          我忘记了什么时候生成了所需曲线计数表,但这些是我将用于此分析的数字。因此,根据e^(-x)规则,我们可以说55+位数水平的因子缺失的概率是:
                          代码:
                          55位数字:e^(-197.941)~=1.0847e-8660位数字:e^(-45.865)~=1.2052e-2065位:e^(-9.882)~=5.1086e-5=0.000051086=0.005%的概率错过65位因子70位数字:e^(-2.011)~=0.1338=13.38%的概率丢失70位数字因子75位:e^(-0.370)~=0.6907=丢失75位因子的概率为69.07%
                          在我们尝试转到GNFS之前,最好完成1*t75或2*t75,甚至1*t80。
                          GNFS将占用大量资源,很难找到计算能力和时间。
                          因此,(在接下来的几年中)对这个因子分解做出贡献的最佳方法是对这个数字运行额外的ecm。

                          注释

                          工作。。。
                          X