2016年12月20日 星期二 晴
今天抽空统计了一下环亚太杯一年级的得奖情况:
总共有189个人得奖,其中一等奖17个(明珠B5个,明珠C5个,其他7个小学各1个),二等奖43个(明珠B5个,明珠C9个,上外尚阳4个,洛川学校3个,曹杨实验3个等),三等奖58个(明珠A1个,明珠B2个,明珠C7个,德富路小学5个,万里城实验学校5个等),优异奖71个(明珠B3个,明珠C5个,德富路小学24个),看来明珠还是可以的,以上仅供大家参考(我一度怀疑是不是其他学校不太知道这个杯赛,没有多少人参加。)
5个年级累计总获奖人数是3122人,明珠获奖266人。 一等奖:47/345 二等奖:86/570 三等奖:76/953 优异奖:57/1254
明珠在各年级总共得奖人数: 一年级:42/189 二年级:31/313 三年级:34/618 四年级:91/1022 五年级:68/980
所有纬度统计下来,总体来看,明珠在奥数竞赛方面还是超一流的,学校有这个氛围和这个传统。另外,假设明珠其他班都参加的话,那么SS所在就是尖子班了(入学有简单面试,他答得还可以,比如他知道3的倍数),而且SS的数学应该在他们年级顶级行列。
路漫漫其修远兮,一年级说能领先这个话还太早,三四年级见分晓。
附参考程序: [code] #! /usr/bin/env python #coding=utf-8
import urllib2, urllib, cookielib,socket import re, time, json, random import os,sys from urlparse import urlparse
import xlrd,xlwt
def get_url_data(url,headers = None): request = urllib2.Request(url) if headers: request.add_header(‘User-Agent’, headers)
nFail = 0
while nFail < 5:
try:
sock = urllib2.urlopen(request)
rsp = sock.read()
sock.close()
return rsp
except Exception,e:
nFail += 1
print "get_url_data fail:%s count=%d,Exception=%s" % (url,nFail,e)
time.sleep(5)
print "get url fail:%s" % (url)
return None
result_str2 = ‘’’
def search_byid(): reload(sys) sys.setdefaultencoding(‘utf8’)
socket.setdefaulttimeout(120)#
cj = urllib2.HTTPCookieProcessor(cookielib.CookieJar())
openner = urllib2.build_opener(cj)
urllib2.install_opener(openner)
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0',
'Host':'ww.duxiebeisai.com',
'Cookie':'_csrf=1118ca3f837270e5c07d16d449bcb39efc5841f66c8676695bb0472d56aa80bfa%3A2%3A%7Bi%3A0%3Bs%3A5%3A%22_csrf%22%3Bi%3A1%3Bs%3A32%3A%22Hwh2qMK6rbL27HM-dlo75aIoN-uMPIYc%22%3B%7D',
'Connection':'keep-alive',
'Accept-Language':' en-US,en;q=0.5',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
}
file = xlwt.Workbook() #注意这里的Workbook首字母是大写
table2 = file.add_sheet("Sheet1",cell_overwrite_ok=True)
row = 0
baseurl = r'http://www.duxiebeisai.com/index.php?r=site%2Fresult&id='
for id in range(2571,5693):
print 'handle id = %d' % (id)
col = 0
url = baseurl + str(id)
rsp = get_url_data(url,headers)
if rsp:
objs = result_obj2.findall(rsp)
if objs:
#print objs
for obj in objs:
table2.write(row,col,obj.decode('utf-8'))
#print obj
col += 1
row += 1
if row % 10 == 0:
time.sleep(2)
outfile = 'math.xls'
file.save(outfile)
if name == ‘main’: search_byid() [/code]
...