SoB 指数筛选
Seventeen or bust
项目是一项为了检验谢尔宾斯基猜想而设立的分布式计算项目。为了检验谢尔宾斯基猜想,需要寻找关于
17
个 k
的形如
k*2^n+1 的质数。迄今为止,我们已经发现了
9
个
k
所属的质数,还有 8 个尚未找到。SoB 指数筛选是一个辅助项目,努力通过试除法排除这些候选
(k,n)
对。
优势:
可以通过任意的电脑进行筛选,甚至不用连接因特网。
筛法是非常有效的排除候选数字的方法。
劣势:
你将不会从筛选中发现素数,所以除非你参加 SoB 主项目,你将没有任何机会在历史上留下你的名字!
筛选的软件还未对 P4 进行完全优化,在相似的时钟频率下,非
P4
将快大约
3
倍。 P4 的使用者可以考虑
P-1的辅助项目;看看这个由 hc_grove
提供的这个不错的站点里边包含的信息,或者 P-1 论坛。
要参与筛选计划,你需要你的计算机,一个客户端,一个 sob.dat
文件,和一个筛选的范围。
普通筛选检查那些还没有被主项目复查的 (k,n)
对(现在情况是
推荐使用 Proth Sieve
进行普通筛选。
指数筛选的范围在这里预定。任务完成后结果要在这里提交。在这里提交大的因数。在提交时请确保你已经登录 (否则不能获得分数)。
基于
Windows 和
Linux
平台的客户端,可以选择由 Mikael Klasson 提供的,Paul Jobling 协助完成的 Proth Sieve
。Proth Sieve
提供命令行接口,包括自动化、批量数据和服务类型环境的一体化。拥有旧处理器的计算机应该使用传统版本。PII、PIII
和 AMD
用户可以选择 cmov 版本,P4
用户使用 SSE2 版本。同样 Mikael 提供了一个叫做 sobistrator 的工具可以从一台计算机来控制多台客户端。
对于一些需要 Windows
图形界面的用户,唯一的选择是由
Paul Jobling 提供的
SobSieve.exe。 SobSieve 1.34
提供一个简便的操作方式,但是要注意,它要比
Proth Sieve
慢大约
40%
对于
Windows 和
Linux
以外的操作系统,由 Phil Charmody
提供的 NbeGone
是不错的客户端选择。在这里查看对于不同的操作系统的支持。SoB
指数筛选的镜像站点,为居住在那些以不同方式支持
2003/4
年美国/英国发动的入侵伊拉克战争的国家的那些清白的人提供。如果你要尝试登陆
Phil
的站点,可以在 Google
里搜索“public proxies
country”。
指数筛选的范围在这里预定。任务完成后结果要在这里提交。在这里提交大的因数。在提交时请确保你已经登录 (否则不能获得分数)。大概来说,一个
计分系统
这里是筛选指数和
P-1 分解因子的全部 和 2005年 的分数统计。这些每天都在英国本地时间大约
03:00、09:00、15:00
和
21:00
左右更新。分数的计算方法如下:
一个首先发现的因子 p 如下计分::
当
p
< 40T 时,分数
= p/1T
当 p > 40T,并且 n
在主要筛选区间内,没有进行 PRP 测试的话,分数 = (n/
当 p > 40T,并且 n
在主要筛选区间和 n 的最小上界之间,没有进行 PRP 测试的话,分数 = (n/
当 p > 40T,并且
n 在复查筛选区间内,没有进行 PRP 测试的话,分数 = (n/
当 p > 40T,并且 n
在复查筛选区间内,进行了 1 次 PRP 测试的话,分数 = (n/
当 p > 40T,并且 n
在复查筛选区间内,进行了 2
次
PRP
测试的话,分数 = (n/
当 p > 40T,并且 n
在已完成区间内的话,分数 = (n/
当 p > 40T,当发现了当某个k值所属的质数以后,上面所有的计分都会被冻结固定,后面再发现的这个k值的因子不再计入分数。
都不属于这个情况的话,分数按照后续找到的其它因子的分数计算方式来计算。
偏离值 = p/40T 和 当前筛选到的质数上界的 90%/40T 两个当中更小的一个。
一个发现的其它因子的计分方法如下:
分数 = p/100T,但是不大于 35,和把它当作首先发现的因子来计算出的分数中较低的一个。当发现了当某个
k
值所属的质数以后,计分会被冻结固定,后面再发现的这个 k
值的因子不再计入分数。
首先发现的因子就是在当前筛选区间内发现的某个数的第一个因子。
对于每个首先发现的因子的分数都被记录。分数可以上升(当主要活跃区间上升时),但不会下降(当一个因子移出区间)。
在主要活跃区间以外而又没有进行 PRP 测试,而发现的因子给出的分数将不再上升(比如当它们达到复查筛选区间的时候)。
主要筛选区间是 (<下一个筛选目标>) < n < (<下一个筛选目标> + 200K)
复查筛选区间是 (<下一个复查目标>) < n < (<下一个复查目标> + 200K)
第二个复查筛选区间是 (<第二个复查目标>) < n < (<第二个复查目标> + 10K)
已完成区间是 0 < n < (<下一个复查目标>)
n 的最小上界是在这里描述的 n
的上界的最小值。
被排除的因子(那些在筛选
100<n<
在2003年7月21号之前计分方法如下:
当 n
< 300K 时,分数
= p/1T * ((n*n)/(300K * 300K))
当 300K
< n <
当 n
>
发现的其它因子,
分数
= 首次发现时的分数
* 0.01。当发现了当某个
k
值所属的质数以后所有发现的其它因子都不计分。
对于一对
k/n,最小的因子以首先发现的因子的方法来计分,所有其它因子以发现的其它因子的方法来计分。
被排除的因子(那些在筛选
100<n<
更多信息作为一个记录分数的文件被放在 results.txt
中,其中发现的其它因子和被排除的因子都被标记出来,用户和团队的信息也被完全记录下来。这些每天在大约
03:00
的时候更新。
这里我们尝试那些被完整地筛选过的区间,这对以后的工作会有帮助。
|
对100T<p<1000T区间的总结 |
这些每天都在英国本地时间大约
03:00、09:00、15:00
和 21:00
左右更新。
日期 |
事件 |
用户分数 |
团队分数 |
项目状态 |
|
当 k= 4847 被移除后的统计(筛选 8 个 k 的指数的第一天) |
|||
|
发现当 k= 4847 时的质数后的统计(筛选 9 个 k 的指数的最后一天) |
|||
|
当 k=27653 被移除后的统计(筛选 9 个 k 的指数的第一天) |
|||
|
发现当 k=27653 时的质数后的统计(筛选 10 个 k 的指数的最后一天) |
|||
|
当 k=28433 被移除后的统计(筛选 10 个 k 的指数的第一天) |
|||
|
发现当 k=28433 时的质数后的统计(筛选 11 个 k 的指数大于 11k 的最后一天) |
|||
|
完成了低于 300T 的质数的筛选 |
|||
|
当 k=5359 被移除后的统计(筛选 11 个 k 的指数的第一天) |
|||
|
发现当 k=5359 时的质数后的统计(筛选 12 个 k 的指数的最后一天) |
|||
|
另一份早期指数筛选的统计(当时已经完成了低于17T的质数的筛选) |
|||
|
我能找到的最早的指数筛选的统计(当时已经完成了低于 10T
的质数的筛选) |
P-1 分解因子计划的信息,由 hc_grove
提供。
每天更新的 P-1
sob.dat – 只对 P-1 因子分解有用。使用这个文件进行
P-1 因子分解,并且经常更新这个文件(只有 16KB)。而结果放在 results.txt
(1.9MB) 中。
用
P-1 因子分解方法发现的最大质因数 (需要有很好的 B1
与 B2 的猜测值才可以破纪录!还没有来自
SoB 的纪录呢!)
最大的 200 个已知质数 (who”的一栏是
“SB几” 的就是 SoB 的贡献了。)
有什么问题吗? 可以通过 SoB
forum
或者
这里
找到我。
由 wenmao 提出翻译,由 fwjmath、 wenmao 完成翻译。中国分布式计算总站版权所有。