This commit is contained in:
Markus Cozowicz 2018-10-26 12:57:46 +02:00 коммит произвёл GitHub
Родитель 3e8352bfc1
Коммит 408d30d2a1
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: 4AEE18F83AFDEB23
1 изменённых файлов: 26 добавлений и 0 удалений

Просмотреть файл

@ -43,3 +43,29 @@ On [Spark](https://spark.apache.org/) one can install all 3 components (C++, Pyt
```bash ```bash
sbt spPublish sbt spPublish
``` ```
# Jupyter Notebook Setup
# Spark Setup
One must set the crossJoin property to enable calculation of the similarity matrix.
```
spark.sql.crossJoin.enabled true
```
# Databricks Setup
One must set the crossJoin property to enable calculation of the similarity matrix.
```
spark.sql.crossJoin.enabled true
```
1. Navigate to your workspace
2. Create library
3. Under 'Source' select 'Maven Coordinate'
4. Enter eisber:sarplus:0.2.1
5. Hit 'Create Libbrary'
This will install C++, Python and Scala code on your cluster.