java-CSV内容被Spark读取为null
我正在尝试读取CSV文件,以便可以使用Spark SQL查询它. CSV如下所示: 16;10;9/6/2018 CSV文件不包含标题,但是我们知道第一列是部门代码,第二列是建筑代码,第三列是格式为m / d / YYYY的日期. 我编写了以下代码以使用自定义架构加载CSV文件: StructType sch = DataTypes.createStructType(new StructField[] { DataTypes.createStructField("department", DataTypes.IntegerType, true), DataTypes.createStructField("building", DataTypes.IntegerType, false), DataTypes.createStructField("date", DataTypes.DateType, true), }); Dataset<Row> csvLoad = sparkSession.read().format("csv") .option("delimiter", ";") .schema(sch) .option("header","false") .load(somefilePath); csvLoad.show(2); 当我使用csvLoad.show(2)时