キャンセル
次の結果を表示 
次の代わりに検索 
もしかして: 
DataRobot コミュニティ

BatchPrediction APIでUploadできるcsvファイルのサイズ上限

kazzo
青色LED

BatchPrediction APIでUploadできるcsvファイルのサイズ上限

https://datarobot-public-api-client.readthedocs-hosted.com/en/v2.22.1/entities/batch_predictions.htm...

BatchPredictionJobのscoreメソッドで、サイズがある程度以上のcsvファイル(10GB以上くらい)をuploadしようとすると、以下のようにエラーがでます。

413 Request Entity Too Large

 

こちら10GBほどでサイズ上限が設定されているのでしょうか?

現状は10GBずつくらいに分けてuploadすることで対応しております。

 

0 件の賞賛
2件の返信2
Sho Tanaka
データロボット同窓生

@kazzo さん

 

こんにちは。SaaS環境をお使いの場合、仰るとおりローカルファイルを入力データとするBatchPredictionAPIは10GBのファイル制限がございます。

S3などの別の入力データのソースは制限がございません。

参考までに上限などが記載されているドキュメントを共有しますね(SaaSのアカウントが必要です)

https://app.datarobot.com/docs/predictions/batch/batch-prediction-api/index.html

※なお上記の日本語ページは準備中です。

 

ご確認よろしくお願いいたします。

 

田中

なるほど、s3の場合はないんですね。

ありがとうございます!助かります。

0 件の賞賛