• <noscript id="e0iig"><kbd id="e0iig"></kbd></noscript>
  • <td id="e0iig"></td>
  • <option id="e0iig"></option>
  • <noscript id="e0iig"><source id="e0iig"></source></noscript>
  • Jupyter練習

    一、安裝與使用

    安裝Ipython與Jupyter,安裝好后,接著安裝pandas、seaborn、statsmodels庫。

    或者直接安裝anaconda,里面有Jupyter Notebook,直接啟動,自動打開一個瀏覽器,創建一個新的Python3文件。


    二、問題解答

    導入數據分析要用到的各種庫并且導入數據



    Part 1

    For each of the four datasets...

    • Compute the mean and variance of both x and y
    • Compute the correlation coefficient between x and y
    • Compute the linear regression line: y=β0+β1x+? (hint: use statsmodels and look at the Statsmodels notebook)


    (1)Compute the mean and variance of both x and y

    gp = anascombe.groupby('dataset') #對數據集按照dataset列進行分組
    
    #分別對四個類別的dataset輸出x、y的均值和方差
    for index in ['I','II',"III","IV"]: 
        print("The " + index + " dataset:")
        mean_x = gp.get_group(index)['x'].mean()
        mean_y = gp.get_group(index)['y'].mean()
        var_x =  gp.get_group(index)['x'].var()
        var_y =  gp.get_group(index)['y'].var()
        print("  x的均值",mean_x)
        print("  y的均值", mean_y)
        print("  x的方差", var_x)
        print("  y的方差", var_y)
        print("")

    output:

    The I dataset:
      x的均值 9.0
      y的均值 7.500909090909093
      x的方差 11.0
      y的方差 4.127269090909091
    
    The II dataset:
      x的均值 9.0
      y的均值 7.500909090909091
      x的方差 11.0
      y的方差 4.127629090909091
    
    The III dataset:
      x的均值 9.0
      y的均值 7.500000000000001
      x的方差 11.0
      y的方差 4.12262
    
    The IV dataset:
      x的均值 9.0
      y的均值 7.50090909090909
      x的方差 11.0
      y的方差 4.12324909090909

    (2)Compute the correlation coefficient between x and y

    cor_matrix = gp.corr() #求出相關系數矩陣
    print("相關系數矩陣:")
    print(cor_matrix)
    print("")
    #分別得出每個dataset的相關系數
    for index in ['I','II',"III","IV"]:
        print("dataset " + index + " 相關系數 : ",cor_matrix['x'][index]['y'])
       

    output:

    相關系數矩陣:
                      x         y
    dataset                      
    I       x  1.000000  0.816421
            y  0.816421  1.000000
    II      x  1.000000  0.816237
            y  0.816237  1.000000
    III     x  1.000000  0.816287
            y  0.816287  1.000000
    IV      x  1.000000  0.816521
            y  0.816521  1.000000
    
    dataset I 相關系數 :  0.81642051634484
    dataset II 相關系數 :  0.8162365060002428
    dataset III 相關系數 :  0.8162867394895981
    dataset IV 相關系數 :  0.8165214368885028

    (3)Compute the linear regression line: y=β0+β1x+?

    for index in ['I','II','III','IV']:
        x1 = gp.get_group(index)['x']
        y1 = gp.get_group(index)['y']
        t = sm.add_constant(x1)
        stats_models = sm.OLS(y1,t)
        stats_models1 = stats_models.fit()
        print(stats_models1.summary())
        print("\n\n")
        print('we can see that params are:')
        print(stats_models1.params)

    output:

       OLS Regression Results                            
    ==============================================================================
    Dep. Variable:                      y   R-squared:                       0.667
    Model:                            OLS   Adj. R-squared:                  0.629
    Method:                 Least Squares   F-statistic:                     17.99
    Date:                Mon, 11 Jun 2018   Prob (F-statistic):            0.00217
    Time:                        19:59:01   Log-Likelihood:                -16.841
    No. Observations:                  11   AIC:                             37.68
    Df Residuals:                       9   BIC:                             38.48
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [0.025      0.975]
    ------------------------------------------------------------------------------
    const          3.0001      1.125      2.667      0.026       0.456       5.544
    x              0.5001      0.118      4.241      0.002       0.233       0.767
    ==============================================================================
    Omnibus:                        0.082   Durbin-Watson:                   3.212
    Prob(Omnibus):                  0.960   Jarque-Bera (JB):                0.289
    Skew:                          -0.122   Prob(JB):                        0.865
    Kurtosis:                       2.244   Cond. No.                         29.1
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    
    
    
    we can see that params are:
    const    3.000091
    x        0.500091
    dtype: float64
                                OLS Regression Results                            
    ==============================================================================
    Dep. Variable:                      y   R-squared:                       0.666
    Model:                            OLS   Adj. R-squared:                  0.629
    Method:                 Least Squares   F-statistic:                     17.97
    Date:                Mon, 11 Jun 2018   Prob (F-statistic):            0.00218
    Time:                        19:59:01   Log-Likelihood:                -16.846
    No. Observations:                  11   AIC:                             37.69
    Df Residuals:                       9   BIC:                             38.49
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [0.025      0.975]
    ------------------------------------------------------------------------------
    const          3.0009      1.125      2.667      0.026       0.455       5.547
    x              0.5000      0.118      4.239      0.002       0.233       0.767
    ==============================================================================
    Omnibus:                        1.594   Durbin-Watson:                   2.188
    Prob(Omnibus):                  0.451   Jarque-Bera (JB):                1.108
    Skew:                          -0.567   Prob(JB):                        0.575
    Kurtosis:                       1.936   Cond. No.                         29.1
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    
    
    
    we can see that params are:
    const    3.000909
    x        0.500000
    dtype: float64
                                OLS Regression Results                            
    ==============================================================================
    Dep. Variable:                      y   R-squared:                       0.666
    Model:                            OLS   Adj. R-squared:                  0.629
    Method:                 Least Squares   F-statistic:                     17.97
    Date:                Mon, 11 Jun 2018   Prob (F-statistic):            0.00218
    Time:                        19:59:01   Log-Likelihood:                -16.838
    No. Observations:                  11   AIC:                             37.68
    Df Residuals:                       9   BIC:                             38.47
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [0.025      0.975]
    ------------------------------------------------------------------------------
    const          3.0025      1.124      2.670      0.026       0.459       5.546
    x              0.4997      0.118      4.239      0.002       0.233       0.766
    ==============================================================================
    Omnibus:                       19.540   Durbin-Watson:                   2.144
    Prob(Omnibus):                  0.000   Jarque-Bera (JB):               13.478
    Skew:                           2.041   Prob(JB):                      0.00118
    Kurtosis:                       6.571   Cond. No.                         29.1
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    
    
    
    we can see that params are:
    const    3.002455
    x        0.499727
    dtype: float64
                                OLS Regression Results                            
    ==============================================================================
    Dep. Variable:                      y   R-squared:                       0.667
    Model:                            OLS   Adj. R-squared:                  0.630
    Method:                 Least Squares   F-statistic:                     18.00
    Date:                Mon, 11 Jun 2018   Prob (F-statistic):            0.00216
    Time:                        19:59:01   Log-Likelihood:                -16.833
    No. Observations:                  11   AIC:                             37.67
    Df Residuals:                       9   BIC:                             38.46
    Df Model:                           1                                         
    Covariance Type:            nonrobust                                         
    ==============================================================================
                     coef    std err          t      P>|t|      [0.025      0.975]
    ------------------------------------------------------------------------------
    const          3.0017      1.124      2.671      0.026       0.459       5.544
    x              0.4999      0.118      4.243      0.002       0.233       0.766
    ==============================================================================
    Omnibus:                        0.555   Durbin-Watson:                   1.662
    Prob(Omnibus):                  0.758   Jarque-Bera (JB):                0.524
    Skew:                           0.010   Prob(JB):                        0.769
    Kurtosis:                       1.931   Cond. No.                         29.1
    ==============================================================================
    
    Warnings:
    [1] Standard Errors assume that the covariance matrix of the errors is correctly specified.
    
    
    

    我們可以看到對應參數為:

    we can see that params are:
    const    3.001727
    x        0.499909
    dtype: float64


    Part 2

    Using Seaborn, visualize all four datasets.

    hint: use sns.FacetGrid combined with plt.scatter

    graph = sns.FacetGrid(anascombe,row="dataset")  
    graph.map(plt.scatter,'x','y')  

    output:



    版權聲明:本文為m0_37404802原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接和本聲明。
    本文鏈接:https://blog.csdn.net/m0_37404802/article/details/80656442

    智能推薦

    練習

    ?? 2. 輸出乘法口訣表 3. 判斷1000年---2000年之間的閏年...

    練習

    ?? 1. 打印100~200 之間的素數 //二:去掉100~200之間的偶數,只判斷奇數中有沒有素數。 三.假設一個數不是素數,N=n*m,且n,m中至少有一個數小于等于sqrt(i),判斷前一半是否有數字能被整除,如果沒有,則是素數...

    練習

    1.請實現一個算法 確定一個字符串的所有字符串是否全都不同。這里我們要求不允許使用額外的存儲結構。 給定一個string iniString,請返回一個boolean值,True代表所有的字符全都不同,False代表存在相同的字符。 2.給定一個string iniString,請返回一個string ,為翻轉后的字符串。 3.有數量不限的硬幣,幣值為25分,10分,5分和1分,請編寫代碼計算給定...

    神奇的Batch Normalization 如果一個模型僅訓練BN層會是什么樣的

    您可能會感到驚訝,但這是有效的。 ? 最近,我閱讀了arXiv平臺上的Jonathan Frankle,David J. Schwab和Ari S. Morcos撰寫的論文“Training BatchNorm and Only BatchNorm: On the Expressive Power of Random Features in CNNs”。 這個主意立刻引起了...

    用Python實現校園通知更新提醒

    前言 這個項目實已經在一個月前已經完成了,一直都想寫一篇博客來總結這個過程中遇到的一些問題。但最近一個月來都比較忙,所以一直拖到了現在。 首先說說起因吧,我沒事的時候,總喜歡依次點開學校主頁、教務處、圖書館以及學院的網站,看看有沒有什么新通知,雖然大多與我無關。恰逢最近正在學Python,經常聽到別人說用Python寫爬蟲很簡單,但自己尚未接觸過爬蟲。于是抱著試一試的心態看了幾篇關于Python爬...

    猜你喜歡

    spring_ioc相關_第一章

    1 spring是一站式框架,在javaee的三層結構中,每一層都提供不提并的解決技術 web層:springMVC service層:spring的ioc dao層:spring的jdbcTemplate 2 javaee為避免兩個類之間出現耦合,則把對象的創建交給spring進行管理,spring的ioc操作:(1)ioc的配置文件方式;(2)ioc注解方式 3 ioc的底層原理使用技術(1)...

    【Python+OpenCV】視頻流局部區域像素值處理-一種特征提取方法

    參考我之前寫的處理圖片的文章:Python+OpenCV實現【圖片】局部區域像素值處理(改進版) 開發環境:Python3.6.0 + OpenCV3.2.0 任務目標:攝像頭采集圖像(例如:480*640),并對視頻流每一幀(灰度圖)特定矩形區域(480*30)像素值進行行求和,得到一個480*1的數組,用這480個數據繪制條形圖,即在逐幀采集視頻流并處理后“實時”顯示采...

    JavaWeb——【前端】——注冊頁面

    頁面效果 實現代碼 注意事項 主要使用的bootstrap樣式 如果想引用,不要直接復制,沒用的。 先介紹下所引用的文件: boostrap的js、bootstrap的css、jquery的js、以及自己編寫的register.css。 因為博主用的thymeleaf語法,所以有th符號。 若要使用時,根據個人情況導入相應的依賴。...

    網站HTTP升級HTTPS完全配置手冊

    本文由葡萄城技術團隊于博客園原創并首發 轉載請注明出處:葡萄城官網,葡萄城為開發者提供專業的開發工具、解決方案和服務,賦能開發者。 今天,所有使用Google Chrome穩定版的用戶迎來了v68正式版首個版本的發布,詳細版本號為v68.0.3440.75,上一個正式版v67.0.3396.99發布于6月13日,自Chrome 68起,當在加載非HTTPS站點時,都會在地址欄上明確標記為&ldqu...

    echarts 自定義儀表盤設置背景圖片

    echarts儀表盤 使用插件 vue-echarts 代碼示例 HTML部分 js部分 效果圖...

    精品国产乱码久久久久久蜜桃不卡