BatchPredictionJobのscoreメソッドで、サイズがある程度以上のcsvファイル(10GB以上くらい)をuploadしようとすると、以下のようにエラーがでます。
413 Request Entity Too Large
こちら10GBほどでサイズ上限が設定されているのでしょうか?
現状は10GBずつくらいに分けてuploadすることで対応しております。
解決済! 解決策の投稿を見る。
@kazzo さん
こんにちは。SaaS環境をお使いの場合、仰るとおりローカルファイルを入力データとするBatchPredictionAPIは10GBのファイル制限がございます。
S3などの別の入力データのソースは制限がございません。
参考までに上限などが記載されているドキュメントを共有しますね(SaaSのアカウントが必要です)
https://app.datarobot.com/docs/predictions/batch/batch-prediction-api/index.html
※なお上記の日本語ページは準備中です。
ご確認よろしくお願いいたします。
田中
なるほど、s3の場合はないんですね。
ありがとうございます!助かります。