Commit 4c930410 authored by Raphaël's avatar Raphaël
Browse files

Merge branch 'master' of https://gitlab.utc.fr/crozatst/hdoc

parents 6b246c0d 3b410e48
<?xml version="1.0" encoding="UTF-8"?>
<project basedir="." name="opale_to_canoprof" default="main">
<property file="opale_to_canoprof.properties"/>
<!-- Check the OS family -->
<condition property="is_windows">
<os family="windows"/>
</condition>
<condition property="is_unix">
<os family="unix"/>
</condition>
<target name="main">
<delete dir="${out}" failonerror="false"/>
<mkdir dir="output"/>
<antcall target="to_hdoc_unix"/>
<antcall target="to_hdoc_windows"/>
<antcall target="to_canoprof_windows"/>
<antcall target="to_canoprof_unix"/>
<antcall target="to_canoprof_end"/>
</target>
<!-- Targets if windows -->
<!-- Conversion opale to hdoc -->
<!-- 1. delete the opale_to_hdoc input file -->
<!-- 2. copy the local input file to opale_to_hdoc -->
<!-- 3. run the opale_to_hdoc conversion -->
<target name="to_hdoc_windows" if="${is_windows}">
<delete>
<fileset dir="${opa_in}">
<include name="*.scar"/>
</fileset>
</delete>
<copy todir="${opa_in}">
<fileset dir="${in}">
<include name="*.scar"/>
</fileset>
</copy>
<exec dir="../opale_to_hdoc" executable="../opale_to_hdoc/run.bat"/>
</target>
<!-- Conversion hdoc to canoprof -->
<!-- 1. delete the hdoc_to_canoprof input file -->
<!-- 2. copy the opale_to_hdoc's output file to hdoc_to_canoprof input folder -->
<!-- 3. run the hdoc_to_canoprof conversion -->
<target name="to_canoprof_windows" if="${is_windows}">
<delete>
<fileset dir="${cano_in}">
<include name="*.hdoc"/>
</fileset>
</delete>
<copy todir="${cano_in}">
<fileset dir="${opa_out}">
<include name="*.hdoc"/>
</fileset>
</copy>
<exec dir="../hdoc_to_canoprof" executable="../hdoc_to_canoprof/run.bat"/>
</target>
<!-- Targets if unix -->
<!-- Conversion opale to hdoc -->
<!-- 1. delete the opale_to_hdoc input file -->
<!-- 2. copy the local input file to opale_to_hdoc -->
<!-- 3. run the opale_to_hdoc conversion -->
<target name="to_hdoc_unix" if="${is_unix}">
<delete>
<fileset dir="${opa_in}">
<include name="*.scar"/>
</fileset>
</delete>
<copy todir="${opa_in}">
<fileset dir="${in}">
<include name="*.scar"/>
</fileset>
</copy>
<exec executable="/bin/bash" dir="../opale_to_hdoc">
<arg value="../opale_to_hdoc/run.sh"/>
</exec>
</target>
<!-- Conversion hdoc to canoprof -->
<!-- 1. delete the hdoc_to_canoprof input file -->
<!-- 2. copy the opale_to_hdoc's output file to hdoc_to_canoprof input folder -->
<!-- 3. run the hdoc_to_canoprof conversion -->
<target name="to_canoprof_unix" if="${is_unix}">
<delete>
<fileset dir="${cano_in}">
<include name="*.hdoc"/>
</fileset>
</delete>
<copy todir="${cano_in}">
<fileset dir="${opa_out}">
<include name="*.hdoc"/>
</fileset>
</copy>
<exec executable="/bin/bash" dir="../hdoc_to_canoprof">
<arg value="../hdoc_to_canoprof/run.sh"/>
</exec>
</target>
<!-- After the file is converted to canoprof, copy the resulting file to opale_to_canoprof's output folder -->
<target name="to_canoprof_end">
<copy todir="${out}">
<fileset dir="${cano_out}"/>
</copy>
</target>
</project>
in = ${basedir}/input
out = ${basedir}/output
tmp = ${basedir}/tmp
xsl = ${basedir}/xsl
lib = ${basedir}/lib
log = ${basedir}/log
opa_in = ../opale_to_hdoc/input
opa_out = ../opale_to_hdoc/output
cano_in = ../hdoc_to_canoprof/input
cano_out = ../hdoc_to_canoprof/output
rootfilename = content.xml
\ No newline at end of file
......@@ -6,7 +6,7 @@ License GPL3.0 http://www.gnu.org/licenses/gpl-3.0.txt
## Credits
-------------
DELAUNAY Grégory
DELAUNAY Grégory
KELLER Vincent
## Presentation
......@@ -22,8 +22,25 @@ Opale to ElasticSearch module extract data from an Opale file to use it with Ela
## User Story
-------------
"Vous disposez d'un ensemble de contenus Opale à votre disposition et vous aimeriez pouvoir l'analyser selon les différents types d'éléments possibles : cours, exercices, notions tout en permettant de trier par rapport aux différents sujets de ces dit contenus.
Pour se faire, vous mettrez les contenus que vous voulez analyser en input de opale_to_elasticSearch et vous lancerez le script lançant le fichier ANT.
Vous pourrez ensuite accéder à des graphiques Kibana à une adresse donnée et paramétrer vos graphiques afin d'obtenir les informations qui vous intéresse.
"Vous disposez d'un ensemble de contenus Opale à votre disposition et vous aimeriez pouvoir l'analyser selon les différents types d'éléments possibles : cours, exercices, notions tout en permettant de trier par rapport aux différents sujets de ces dit contenus.
Pour se faire, vous mettrez les contenus que vous voulez analyser en input de opale_to_elasticSearch et vous lancerez le script lançant le fichier ANT.
Vous pourrez ensuite accéder à des graphiques Kibana à une adresse donnée et paramétrer vos graphiques afin d'obtenir les informations qui vous intéresse.
A savoir que les contenus opale de plusieurs machines/utilisateurs peuvent être capitalisés car l'ensemble des instances de base elasticSearch installées forment un cluster accessible via l'interface Kibana"
A savoir que les contenus opale de plusieurs machines/utilisateurs peuvent être capitalisés car l'ensemble des instances de base elasticSearch installées forment un cluster accessible via l'interface Kibana"
##Utilisation
-------------
L'utilisation complète d'opale_to_elasticSearch nécessite l'utilisation de la stack ELK (ElasticSearch, Logstash, Kibana).
- Télécharger ElasticSearch : https://www.elastic.co/fr/downloads/elasticsearch
- Télécharger Logstash : https://www.elastic.co/fr/downloads/logstash
- Télécharger Kibana : https://www.elastic.co/fr/downloads/kibana
- Télécharger le fichier de conf de Logstash : https://www.dropbox.com/s/lkz3dgmto2d378m/esconf.conf?dl=0
- Mettre le fichier téléchargé dans %{dossier_installation_logstash}/
Etapes :
- aller dans votre dossier d'installation d'elasticsearch et lancer bin/elasticsearch
- aller dans votre dossier d'installation de kibana et lancer bin/kibana
- aller dans votre dossier d'installation de logstash et lancer bin/logstash - f esconf.conf
- lancer la transformation opale_to_elasticsearch en mettant d'abord les *.scar dans opale_to_elasticsearch/input
- Normalement les log de logstash indique l'insertion des sorties de la transformation, il arrive pour le moment qu'il ne le fasse qu'au moment où logstash s'arrête, l'arrêter alors.
- aller sur http://localhost:5601/app/kibana#/dashboard/NF29_DATA_DASHBOARD?_g=(filters%3A!()%2CrefreshInterval%3A(display%3AOff%2Cpause%3A!f%2Cvalue%3A0)%2Ctime%3A(from%3Anow%2Fy%2Cmode%3Aquick%2Cto%3Anow%2Fy))
\ No newline at end of file
libdir=${basedir}/lib
xsldir=${basedir}/xsl
inputPath=${basedir}/input
outputPath=${basedir}/logstash/input
inputOpaleToHdoc=../opale_to_hdoc/input
outputOpaleToHdoc=../opale_to_hdoc/output
inputHdocToElasticSearch=../hdoc_to_elasticSearch/input
outputHdocToElasticSearch=../hdoc_to_elasticSearch/output
\ No newline at end of file
<project name="hdoc_to_elasticsearch" default="clean">
<!-- -->
<taskdef resource="net/sf/antcontrib/antcontrib.properties">
<classpath>
<pathelement location="lib/ant-contrib-0.3.jar"/>
</classpath>
</taskdef>
<property file="build.properties"/>
<!-- Parcours la liste des fichiers pour les transformer -->
<target name="targetAllFiles">
<delete>
<fileset dir="${outputPath}">
<include name="*.json"/>
</fileset>
</delete>
<!-- Copy files in opale_to_hdoc input dir -->
<copy todir="${inputOpaleToHdoc}">
<fileset dir="${inputPath}"/>
</copy>
<!-- Use ant transo opale_to_hdoc -->
<ant antfile="../opale_to_hdoc/opale_to_hdoc.ant" inheritAll="false"/>
<!-- Copy files in hdoc_to_elasticSearch input dir -->
<copy todir="${inputHdocToElasticSearch}">
<fileset dir="${outputOpaleToHdoc}"/>
</copy>
<!-- Use ant transo opale_to_hdoc -->
<ant antfile="../hdoc_to_elasticSearch/hdoc_to_elasticsearch.ant" inheritAll="false"/>
<copy todir="${outputPath}" >
<fileset dir="${outputHdocToElasticSearch}"/>
</copy>
</target>
<!-- Clear tmp files -->
<target name="clean" depends="targetAllFiles">
<echo message="Clean files" />
<!-- -->
<delete includeemptydirs="true" verbose="true">
<fileset dir="${inputOpaleToHdoc}">
<include name="*.scar"/>
</fileset>
</delete>
<delete includeemptydirs="true" verbose="true">
<fileset dir="${outputOpaleToHdoc}">
<include name="*.hdoc"/>
</fileset>
</delete>
<delete includeemptydirs="true" verbose="true">
<fileset dir="${inputHdocToElasticSearch}">
<include name="*.hdoc"/>
</fileset>
</delete>
<delete includeemptydirs="true" verbose="true">
<fileset dir="${outputHdocToElasticSearch}">
<include name="*.json"/>
</fileset>
</delete>
<echo message="Clean end" />
</target>
</project>
@echo off
set lib=lib
set ant=opale_to_elasticsearch.ant
set antparam=-Dprogram.param=%1
set scJarList=%lib%\*
java.exe -classpath "%scJarList%" -Xmx150m org.apache.tools.ant.Main -buildfile %ant% %antparam%
pause
REM start /MIN java.exe -classpath "%scJarList%" -Xmx150m org.apache.tools.ant.Main -buildfile %ant% %antparam%
#!/bin/sh
lib="lib"
ant="opale_to_elasticsearch.ant"
antparam="-Dprogram.param=$1"
#Recherche de java et controle que se soit une version SUN
vJavaCmd="java"
xCheckJava () {
vInputVarName=\$"$1"
vInputVarVal=`eval "expr \"$vInputVarName\" "`
if [ -z "$vInputVarVal" ];then
eval "$1=false"
return
fi
vSunJavaFound=`$vInputVarVal -version 2>&1 | grep -Eo -m 1 "(HotSpot)|(OpenJDK)"`
if [ "$vSunJavaFound" != "HotSpot" ] && [ "$vSunJavaFound" != "OpenJDK" ] ; then
eval "$1=false"
return
fi
}
xCheckJava vJavaCmd
if [ "$vJavaCmd" = "false" ]; then
vJavaCmd="$JAVA_HOME/bin/java"
xCheckJava vJavaCmd
if [ "$vJavaCmd" = "false" ]; then
echo "ERREUR: JRE de SUN introuvable. Veuillez déclarer la variable d'environnement JAVA_HOME."
exit 1
fi
fi
#Lancer la commande
scJarList="$lib/*"
$vJavaCmd -classpath "$scJarList:" -Xmx150m org.apache.tools.ant.Main -buildfile $ant $antparam
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment