2016-09-23 37 views
13

Tôi đang cố gắng tìm hiểu kích thước/hình dạng của một DataFrame trong PySpark. Tôi không thấy một chức năng duy nhất có thể làm điều này.PySpark 2.0 Kích thước hoặc hình dạng của một DataFrame

Trong Python tôi có thể làm

data.shape() 

Có một chức năng tương tự trong PySpark. Đây là giải pháp hiện tại của tôi, nhưng tôi đang tìm kiếm một yếu tố một

row_number = data.count() 
column_number = len(data.dtypes) 

Việc tính toán số cột là không lý tưởng ...

+0

Đặt điều này trong một hàm? – GwydionFR

Trả lời

1

Tôi nghĩ rằng không có chức năng tương tự như data.shape trong Spark. Nhưng tôi sẽ sử dụng len(data.columns) hơn len(data.dtypes)

+1

chỉ cung cấp cho bạn số cột. Điều gì về số lượng hàng? – JanLauGe

7
print((df.count(), len(df.columns))) 
Các vấn đề liên quan