发家致富靠AI:使用keras预测NBA比赛赚钱,回报率136%

六月ゝ 毕业季﹏ 提交于 2020-05-02 16:00:20

  投注者和博彩者没有太多共同点——人们可以把他们的关系描述为一场竞争、决斗、战争。但在梦中,他们却为同样的幻想而垂涎三尺:一个完美的预测模型,使用它能够精确地预测出未来游戏的结果。通过深入学习,这或许是可能的——或者至少比以前的数据科学技术更容易。

 

   基本假设是NBA市场效率低下(价格或投注线并不能反映出所有可用信息),而且可能比大多数市场效率更低,因为铁杆球迷倾向于只赌他们最喜欢的球队。如果你能对市场的低效率下赌注,你就能赚钱。我们识别低效率的方法之一是通过数据分析。

   尽管许多尝试这一挑战的模型都是准确的,但大多数模型离盈利还差得很远。原因很简单:博彩公司也非常准确。即使你能达到博彩公司的准确性,你也会因为5%的投注费而失败。

 

   图表是365net的预测线与实际的赢取百分比。一个成功的模型必须能够通过完美的回归分析预测博彩公司的微小波动。

   我的模型是用带有Tensorflow的Python构建的,它分析了过去11个NBA赛季,并且在很多方面与其他的深度学习模型相似(后者经常被试图用于解决这个问题)。但是我们的模型有一个关键的区别——它使用了一个自定义的损失函数来剔除与博彩公司的相关性。我们正在挑选博彩公司错误预测获胜百分比的游戏。

  

去相关损失公式-这很重要!!!!!!!

源码

 

模型结构

    我用nba_api Python库抓取了得分记录。数据存储在MongoDB集合中。在过去的11个赛季中,每名球员每局共存储42个统计数据,从罚球率到防守得分再到偷球次数不等。下注数据是从betexplorer中收集的。找到高质量的投注线比训练模型困难得多。你可以向斯洛文尼亚卢布雅那大学的什特鲁姆贝尔教授寻求帮助。              

对于每一场比赛,样本是用赛季初每名球员最近8场比赛的平均数计算出来的。根据平均比赛时间选出前8名选手。

模型

预处理

  1. import os  
  2. import numpy as np  
  3. from tqdm import tqdm  
  4. from pymongo import MongoClient  
  5. bookies = {  
  6.     "44":"Betfair",  
  7.     "16":"bet365",  
  8.     "18":"Pinnacle",  
  9.     "5":"Unibet"  
  10. }  
  11. client = MongoClient()  
  12. db = client.nba  
  13. games = db.games  
  14.   
  15. seasons = [f"002{str(i).zfill(2)}" for i in range(8, 20)]  
  16. # load the samples into memory  
  17. x, y = [], []  
  18. def normalize_sample(nparr):  
  19.     for feature in range(nparr.shape[-1]): # iterate over the features  
  20.         f = np.nan_to_num(nparr[:, :, feature])  
  21.         nparr[:, :, feature] = (f-f.min())/(f.max()-f.min())  
  22.     return nparr  
  23.   
  24. for season in seasons:  
  25.     for filename in tqdm(os.listdir(f"samples/{season}")[120:]):  
  26.         if ".npy" in filename:  
  27.             game = list(games.find({"GAME_ID":filename.strip(".npy"), "bet365":{"$exists":"True"}}))  
  28.             if not game:  
  29.                 continue  
  30.             game = game[0]  
  31.             closing_odds = 1/float(game["bet365"].split()[1].split("v")[0])  
  32.             home_win = int(game["HOME"] == game["WINNER"])  
  33.             sample = np.load(f"samples/{season}/{filename}")  
  34.             x.append((normalize_sample(sample), closing_odds))  
  35.             y.append(home_win)  
  36. x = np.array(x)  
  37. y = np.array(y)  
  38.   
  39. import random  
  40. print(x.shape, y.shape)  
  41. diff = len(y)//2 - np.count_nonzero(y == 0)  
  42. for i in tqdm(range(diff)):  
  43.     while True:  
  44.             a = random.randint(1, len(y)-1)  
  45.             if y[a] == 1:  
  46.                 x = np.delete(x, a, 0)  
  47.                 y = np.delete(y, a, 0)  
  48.                 break  
  49. print(len(x), len(y))  

模型

  1. from keras import backend as K  
  2. from keras.models import Model  
  3. from keras.models import Sequential  
  4. from keras.layers import Input, Dense, Dropout, Conv2D, Flatten, Activation, concatenate  
  5. from keras.optimizers import Adam  
  6.   
  7. c = 0.6  
  8. def decorrelation_loss(neuron):  
  9.     def loss(y_actual, y_predicted):  
  10.         return K.mean(  
  11.                 K.square(y_actual-y_predicted) - c * K.square(y_predicted - neuron))  
  12.     return loss  
  13.   
  14. # split the two input streams  
  15. box_scores_train, odds_train = map(list, zip(*x_train))  
  16. box_scores_test, odds_test = map(list, zip(*x_test))  
  17.   
  18. # box model turns stats into a vector  
  19. box_model = Sequential()  
  20. shape = box_scores_train[0].shape  
  21. print(shape)  
  22. box_model.add(Conv2D(filters=32, kernel_size=(1, 8), input_shape=shape,  
  23.                  data_format="channels_first", activation="relu"))  
  24. box_model.add(Flatten())  
  25.   
  26. box_input = Input(shape=shape)  
  27. box_encoded = box_model(box_input)  
  28.   
  29. odds_input = Input(shape=(1,), dtype="float32") #(opening or closing weight)  
  30. merged = concatenate([odds_input, box_encoded])  
  31. output = Dense(32, activation="relu")(merged)  
  32. output = Dropout(0.5)(output)  
  33. output = Dense(8, activation="relu")(output)  
  34. output = Dropout(0.5)(output)  
  35. signal = Dense(1, activation="sigmoid")(output)  
  36.   
  37. opt = Adam(lr=0.0001)  
  38. nba_model = Model(inputs=[box_input, odds_input], outputs=signal)  
  39. print(nba_model.summary())  
  40.   
  41. nba_model.compile(optimizer=opt,  
  42.                   #loss="binary_crossentropy",  
  43.               loss=decorrelation_loss(odds_input), # Call the loss function with the selected layer  
  44.               metrics=['accuracy'])  
  45. nba_model.fit([box_scores_train, odds_train], y_train,  
  46.               batch_size=16,validation_data=([box_scores_test, odds_test], y_test), verbose=1,epochs=20)  

该模型是Conv2D和稠密层的组合,具有大量的dropout。模型独一无二的部分是去相关性损失函数,在我的第一篇论文中提到过。尽管Keras本身并不支持具有神经元值的损失函数,但将函数包装在函数中是一种有用的解决方法。我在GTX 1660Ti上训练了20个世代的网络,直到网络收敛。

结果

 

使用一种非常原始的赌博策略,即10%的平衡*模型置信度,并且仅在模型的置信度大于0.6的游戏上赌博,我们就产生了向上的平衡趋势。有趣的是,这个模型只赌了大约10%的游戏。除了整个2017-18赛季的惨败,我们的模型表现非常好,从最初的100美元投资到现在的136美元,峰值为292美元。

展望与未来

  这只是这个模型的开始。有了令人鼓舞的结果,我想制定一个更具活力的投注策略。   唯一有用的可能是下注代码和模型。             

使用NoSQL是一个错误,我应该坚持使用SQLite,但是学习一种新技术是很好的。编写一个自定义损失函数是一个非常宝贵的经验,并将在未来的深入学习项目中派上用场。

Caleb Cheng

翻译人:tensor-zhang

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!