apache-spark 356

  1. 아파치 스파크 대 아파치 스톰
  2. Apache Spark와 Apache Flink의 차이점은 무엇입니까?
  3. 태스크가 직렬화 가능하지 않다 : 객체가 아닌 클래스에서만 클로저 외부에서 function을 호출 할 때 java.io.NotSerializableException
  4. 캐시와 지속성의 차이점은 무엇입니까?
  5. DataFrame (Spark 2.0의 경우 DataSet [행])과 Spark의 RDD
  6. Spark java.lang.OutOfMemoryError : Java 힙 공간
  7. map과 flatMap의 차이점과 각각의 좋은 유스 케이스는 무엇입니까?
  8. 여러 개의 텍스트 파일을 하나의 RDD로 읽는 방법?
  9. Apache Spark : 코어의 수와 집행자의 수
  10. Spark Standalone 클러스터의 직원, 집행자, 코어는 무엇입니까?
  11. 스칼라 대 파이썬 성능 향상
  12. (왜) 우리는 캐시를 호출하거나 RDD에서 지속해야할까요?
  13. spark - repartition () vs coalesce ()
  14. Spark SQL의 DataFrame에서 열 유형을 변경하는 방법?
  15. 데이터 집합에 맞춤 개체를 저장하는 방법
  16. Spark에서 INFO 로깅을 끄는 방법은 무엇입니까?
  17. 스파크 콘솔에 INFO 메시지를 표시하는 것을 멈추는 방법?
  18. RDD의 내용을 인쇄하는 방법은 무엇입니까?
  19. 스파크 작업에 항아리 추가 - spark-submit
  20. 스파크에서 rdd 개체를 데이터 프레임으로 변환하는 방법
  21. DataFrame의 파티션을 정의하는 방법은 무엇입니까?
  22. Apache Spark Executor 메모리를 설정하는 방법
  23. Apache Spark : map 대 mapPartitions?
  24. pyspark에서 데이터 프레임 열 이름을 변경하는 방법?
  25. PyCharm과 PySpark를 연결하는 방법은 무엇입니까?
  26. Spark DataFrame에 상수 컬럼을 추가하는 방법?
  27. SparkR 설치
  28. Spark - 앱을 제출할 때 '구성에 마스터 URL을 설정해야합니다.'오류가 발생했습니다.
  29. PySpark에서 py4j.java_gateway를 찾을 수없는 이유는 무엇입니까?
  30. 스파크 자바 프로그램을 실행하는 법
  31. Apache Spark : Python 3에서 pyspark를 사용하는 방법
  32. Spark RDD에서 요소에 고유 한 연속 번호를 할당하는 방법
  33. Spark의 gzip 지원
  34. Spark에서 Executor 메모리와 드라이버 메모리를 다루는 방법?
  35. Spark은 S3에서 sc.textFile ( "s3n : // ...")을 사용하여 파일을 읽습니다.
  36. java.io.IOException : Hadoop 바이너리에서 실행 파일 null \ bin \ winutils.exe를 찾을 수 없습니다. 윈도우 7에 이클립스 스파크
  37. Apache Spark : 값을 저장하기 위해 RDD를 키로 여러 RDD로 분할
  38. 명령 줄에서 Spark 예제의 마스터 주소를 설정하는 방법
  39. Spark의 캐싱 이해
  40. Spark : RDD가 비어 있는지 테스트하는 효율적인 방법
  41. spark.sql.shuffle.partitions의 최적 값은 무엇이 아니면 Spark SQL을 사용할 때 파티션을 어떻게 늘릴 수 있습니까?
  42. Apache Spark를 사용하여 여러 하이브 상점에서 쿼리하기
  43. 스파크 데이터 프레임에서 여러 열을 선택하는 목록 업 채우기
  44. reduceByKey 메서드가 스칼라 스파크에서 발견되지 않습니다.
  45. Spark가 S3의 쪽매 파일에 대한 열 스캔을 지원합니까?
  46. RDD를 캐쉬 해제하는 방법?
  47. 작업이 "장치에 남은 공간 없음"으로 인해 실패하지만 df가 다르게 말하는 이유는 무엇입니까?
  48. Python / pyspark로 graphx를 실행하려면 어떻게해야합니까?
  49. Spark - 직렬화 할 수없는 작업 : 클래스 / 객체 외부에서 호출하는 복잡한지도 닫기 작업 방법?
  50. 스파크 : RDD [X]에서 모든 가능한 조합의 RDD [(X, X)]를 생성합니다.