SHI GmbH Augsburg - Ihr Starker Partner für Search & Big Data, Apache Solr, IT Commerce Lösungen

27-03-2017 - 28-03-2017
Apache Solr Unleashed
29-03-2017 - 30-03-2017
Apache Solr Under the Hood
04-04-2017 - 05-04-2017
Apache SolrCloud
SHI - Beratung  Entwicklung  Consulting
SHI - Beratung Entwicklung Consulting
Wir beraten unterstützen Sie mit Schulungen, Trainings und Consulting. Von der Strategieberatung bis zur Anwendungsentwicklung helfen wir Ihnen bei der Optimierung Ihrer
Geschäftsprozesse.
SHI - Support und Service
SHI - Support und Service
Wir sind Dienstleister aus Leidenschaft und verstehen unsere Kunden.
Nach dem Projekt ist vor dem Projekt und individuelle, persönliche
Betreuung stehen bei uns ganz weit oben.
SHI - Fast Forward to Success
SHI - Fast Forward to Success
Geschwindigkeit zählt. Bei den Kosten und bei den Erfolgsaussichten.
Bei uns sorgen professionelles Projektmanagement und modulare Entwicklung
für Ihren raschen und effizienten Software-Projekterfolg.
SHI - Individuelle Anwendungen aus Software-Bausteinen
SHI - Individuelle Anwendungen aus Software-Bausteinen
Bei uns bekommen Sie weder Software von der Stange, noch unerprobte Eigenentwicklungen. Wir setzen auf bewährte Open-Source-Technologien und setzen Ihre individuelle Anwendung
aus passenden
Bausteinen zusammen.

Universal AJAX Live Search

Veröffentlicht am 16.12.2015 von Daniel Wrigley

Kürzlich wurde Solr 5.4.0 veröffentlicht, welches wieder zahlreiche Verbesserungen, Optimierungen und Bugfixes beinhaltet.

Eine zentrale und offensichtliche Änderung ist die Einführung einer neuen auf Angular basierende UI, die nun eine Administration der Collections und die Manipulation des Schemas (u.a. Hinzufügen/Löschen von Feldern) im Browser ermöglicht. Dies haben wir bereits in einem anderen Beitrag vorgestellt.

Veröffentlicht am 09.12.2015 von Patricia Kaufmann

Die SolrCloud besticht im Vergleich zu allein agierenden Solr-Instanzen durch eine Vielzahl an Features. Die Collections-API stellt alle nötigen Kommandos bereit, um die SolrCloud auf Ihre Bedürfnisse zuzuschneiden und Ihre Daten sinnvoll zu verteilen bzw. zu duplizieren. Laut Ankündigung auf der Lucence/Solr Revolution 2015, werden diese Funktionalitäten in Solr 5.4 nun auch über die Administrator-Oberfläche zur Verfügung stehen, wie das am 23.11.2015 veröffentlichte Video zeigt. Mühsames Eintippen von URLs oder Befehlen in der Kommandozeile gehören damit der Vergangenheit an. Die folgenden Zeilen werden Ihnen einen Überblick über die neuen Möglichkeiten der Benutzerschnittstelle geben.

Veröffentlicht am 30.11.2015 von Markus Klose

In einer SolrCloud werden die Dokumente auf alle verfügbaren Shards einer Collection verteilt. Dies geschieht mehr oder minder automatisch. Mit diesem Verteilen der Dokumente wird sichergestellt, dass die einzelnen Indexe nicht zu groß werden und die Suche somit performant bleibt. Bei einer Suche muss man dann jedoch alle Shards durchsuchen um ein valides Trefferergebnis zu bekommen.

Es gibt jedoch oft Situationen, da möchte man nur einen speziellen Teil der Dokumente – Beispielsweise nur die eines speziellen Mandanten – durchsuchen. Dies lässt sich natürlich mit FilterQueries umsetzen, aber es gibt noch eine andere Art.

Wenn die Dokumente eines Mandanten in einem einzelnen Shard einer Collection liegen, dann kann man mit Solr nur in diesem Shard suchen. Dies bedeutet einen Performancegewinn, denn alle anderen Shards müssen nicht durchsucht werden.

In diesem Blog werde ich kurz die eingebauten Konzepte vorstellen, Dokumente in der SolrCloud verteilt werden und wie es sich beeinflussen lässt.

Veröffentlicht am 10.11.2015 von Markus Klose

 

Liest man die einschlägigen Dokumentationen zu Apache Solr, wird man immer wieder auf das sogenannte Solr XML stoßen. Mit diesem speziellen XML Format kann der Index leicht manipuliert werden. Viel mehr geht damit aber auch nicht. Seit einigen Versionen gibt es in Solr eine JSON API mit der man ebenfalls den Index manipulieren, aber auch suchen kann.

In diesem Blog werde ich diese API kurz vorstellen und die Möglichkeiten mit den traditionellen Möglichkeiten vergleichen.

Veröffentlicht am 05.11.2015 von Patricia Kaufmann

Das Starten von Solr-Instanzen war in der Vergangenheit oftmals nicht ganz vorbereitungslos zu bewerkstelligen. Die Schuld daran trugen vornehmlich die vielen, oft kryptisch wirkenden Parameter, deren Angabe obligatorischer Bestandteil des Solr-Startkommandos war. Verständnisprobleme, Fehlinterpretationen und Tippfehler seien hier nur als einige der Nachteile einer solchen Parameterliste genannt. Doch frustrierte Solr-Nutzer können nun aufatmen: Die 5.x-Versionen der Suchmaschine vereinfachen das Starten, Neustarten und Stoppen der Solr-Instanzen und lassen somit parameterbedingte Fehlerquellen versiegen.

Veröffentlicht am 11.09.2015 von Daniel Wrigley


Anfangen, die Kunden kennen zu lernen

Die Customer Journey ist ein in Marketingkreisen häufig genannter Begriff, der den Weg eines Kunden bis zum Kaufabschluss beschreibt.

 

Veröffentlicht am 07.09.2015 von Markus Klose

Mit jeder neuen Version von Apache Solr gibt es neue tolle Features und Verbesserungen, von denen man gerne profitieren möchte. Oft bedeutet dies, dass man den Index komplett neu aufbauen (re-indexieren) muss. Dieses bei jedem neuen Solr Release durchzuführen ist natürlich nicht praktikabel. So treffen wir immer wieder auf Kunden, die ältere Indexe haben, aber gerne die neusten Funktionalitäten nutzen möchten. Apache Lucene bietet hier eine einfache Möglichkeit die Version des Indexes anzuheben und das möchte ich in diesem Blogbeitrag kurz beschreiben.

 

Veröffentlicht am 24.08.2015 von Dr. Johannes Peter

 

Ein oftmals auftretendes Problem in Solr ist die Verwendung der SpellCheckComponent (Meinten Sie …) bei der Überprüfung mehrerer aufeinanderfolgender Begriffe, beispielsweise hinsichtlich der Begriffskombination "biig bang theory".
Die meisten Konfigurationen wenden die SpellCheckComponent in Solr auf einzelne Begriffe an. Sofern eine Query mit mehreren Begriffen an Solr geschickt wird, werden die Begriffe separat durch die (zuvor konfigurierte) SpellCheckComponent hinsichtlich ähnlicher Begriffe im Index überprüft. Bei einer Suche nach "biig bang theory" in einem DVD-Shop wird folglich jeder der Begriffe hinsichtlich ähnlicher Begriffe im Index untersucht. Für den Begriff "biig" stellt sich dabei heraus, dass der ähnliche Begriff "big" im Index existiert. Durch sogenannte Collation-Querys wird dann überprüft, welche Trefferhäufigkeiten die Begriffs-Kombinationen aufweisen. Dabei stellt sich heraus, dass "biig bang theory" zu keinen Treffen führt, "big bang theory" hingegen zahlreiche Treffer aufweist.

 

Veröffentlicht am 10.07.15 von Daniel Wrigley


Die Entwicklung von Open Source Projekten schreitet oftmals rasant voran. Apache Solr bildet hier keine Ausnahme, sondern bestätigt diese Aussage ganz klar mit Release-Zyklen, die oftmals im Bereich von sechs bis acht Wochen liegen. Mit über einem Dutzend Releases in seit Anfang 2014 ist diese These nicht aus der Luft gegriffen, sondern auch mit Fakten zu hinterlegen. Dass in dieser Zeit sogar ein Major Release von Solr veröffentlicht wurde, verdeutlicht diesen Sachverhalt zusätzlich.

 

Veröffentlicht am 17.06.2015 von Markus Brandt

„Unser Redaktionssystem verspricht medienneutrale Datenhaltung mittels XML – aber was dabei herauskommt ist in Wahrheit gar nicht medienneutral.“ Solche oder ähnliche Aussagen bekommt man öfter zu hören, sie geben die gelebte praktische Erfahrung in vielen Verlagen wieder.
Schon seit vielen Jahren beschäftigen sich die Verlage landauf landab mit den Herausforderungen der sogenannten „Single-Source“-Produktion. Derzeit erhält das Thema wieder mächtigen Auftrieb, nachdem längst nicht mehr nur noch der klassische Online-Kanal als weiterer Ausgabe-Chanel zum Print hinzukommt, sondern vor allem durch neue mobile Hardware wie Smartphones, Tablets, E-Reader, Ultrabooks und dafür benötigte Software sowie Etablierung neuer Dateiformate mehr Flexibilität denn je gefordert wird.

 

Veröffentlicht am 09.06.2015 von Markus Klose

Die „Berlin Buzzwords 2015“ ist nun bereits eine Woche rum und ich konnte meine Eindrücke und Erfahrungen ausreichend verarbeiten. Diese möchte ich nun in diesem Blog Beitrag kurz vorstellen.

 

Logo

Die "Berlin Buzzwords" ist eine jährliche, in Berlin abgehaltene Konferenz rund um die Themen Speichern, Verarbeiten und Suche von bzw. in - großen Mengen von - digitalen Daten. Die "Berlin Buzzwords" besteht in der Regel aus zwei Tagen mit Vorträgen und einem Rahmenprogramm, bestehend aus einem Barcamp und einem weiteren Tag für Meetups, Workshops und Hackatons.
Jedes Jahr treffen sich in Berlin zu dieser Konferenz viele Anbieter und Anwender von aktuellen Open-Source Technologien, wie Apache Solr, Apache Spark uvm. und berichten von neuen Funktionen, aktuellen Use-Cases oder vergangenen Projekten. Die Themen sind meist sehr technisch und gehen sehr ins Detail.

 

Veröffentlicht am 28.05.2015 von Markus Klose


„Daten sind wie Rohöl!“ - Es steckt viel Potenzial in ihnen, aber man muss es erst herausholen.
Heutzutage wird für die „Veredlung“ von Daten oft auf Software wie Splunk oder Nagios zurückgegriffen. Mit solchen Tools können Daten, wie beispielsweise Log Dateien, verarbeitet und vor allem visualisiert werden, d.h. mit Diagrammen, Charts usw. können beispielsweise Trends besser dargestellt werden.
In diesem Blog werde ich kurz erläutern, wie die neue, kürzlich veröffentlichte Version von Lucidworks Fusion dabei helfen kann Dateien zu visualisieren.

 

Schema vs. Schemaless vs. Managed Schema – „Was ist was?“ und „Was passt am besten zu meiner Suche?“

 
Veröffentlicht am 12.05.2015 von Markus Klose

Für eine gute Suche ist die Qualität des Indexes extrem wichtig. Die Qualität des Index setzt sich zum einem aus der Datenqualität und zum anderen aus der Verarbeitung der Daten während der Indexierung bzw. Suche zusammen. Diese Verarbeitung wird Analyse genannt. In dieser Analyse können beispielsweise Stopp-Wörter entfernt, Synonymersetzungen oder sprachabhängiges Stemming durchgeführt werden.  Dies ist für eine gute Suche essentiell wichtig.

In Apache Solr gibt es mehrere Möglichkeiten diese Analyse zu beschreiben bzw. zu beeinflussen. In diesem Blog werde ich die einzelnen Möglichkeiten aufzeigen und die Vor- und Nachteile gegenüberstellen.

 

Veröffentlicht am 30.04.2015 von Markus Brandt

Die Frage nach dem Return on Invest stellt sich jedem Verlag, der sich mit dem Gedanken trägt, ob er vorhandene Printprodukte durch ein Online-Fachportal ergänzen soll. Dabei spielt es keine grundsätzliche Rolle, ob das Printprodukt wie ein Loseblattwerk oder eine Fachzeitschrift laufend aktuelle Inhalte liefert, oder ob es sich um ein regelmäßig durch Neuauflagen aktualisiertes Fachbuch handelt. In allen Fällen gibt es eine gewisse kalkulatorische Grundsicherheit für die zu erwartenden Folgeumsätze und natürlich entsprechende Kalkulationssheets für Nachdrucke, Auflagen usw. Leider ist es häufig so, dass viele Printprodukte heute nicht mehr so ziehen wie früher und der digitale Wandel die Verlage dazu zwingt, über digitale Alternativen oder zumindest Ergänzungen für ihre Printprodukte nachzudenken. Technisch machbar ist natürlich ungeheuer viel. Nur wer sich beispielsweise schon einmal an einer tausende Euro Entwicklungskosten verschlingenden, nativen App die Finger verbrannt hat, weil in App Stores einfach keine vernünftigen Preise für fachspezifische Anwendungen in spitzen Zielgruppen zu realisieren sind, wird sich allein von den technischen Möglichkeiten nicht mehr leiten lassen. Die Frage lautet wie immer: Wer wird das am Ende des Tages bezahlen?

 

Veröffentlicht am 20.04.2015 von Daniel Wrigley

Seit Solr 4.8 gibt es ein Feature, das aktuell noch nicht besonders dokumentiert und sich daher auch noch nicht weiter Verbreitung erfreuen kann: Document Expiration. Mit dieser Funktionalität kann ich Dokumente basierend auf einem Datumsfeld in regelmäßigen Löschvorgängen aus einem Solr Index löschen sowie ein „Ablaufdatum“ für meine Dokumente berechnen lassen, die wiederum auf einem „time to live“-Wert (TTL) basieren.
Beide Funktionen können mittels DocExpirationUpdateProcessorFactory eingebunden werden, also zur Indexierungszeit, nachdem das Dokument an den UpdateHandler geschickt wurde. Um Dokumente in regelmäßigen Zyklen basierend auf einem Feldwert zu löschen, sind nur zwei Optionen notwendig. Mittels expirationFieldName wird definiert, in welchem Feld das Datum zu finden ist, mittels autoDeletePeriodSeconds in welchem zeitlichen Abstand in Sekunden der Timer zum Löschen angestoßen werden soll.
Nachfolgend ist eine Beispielkonfiguration zu finden, die eine UpdateRequestProcessorChain definiert, die alle 60 Sekunden den Index nach Dokumenten durchsucht, die im Feld expires_dt einen Wert haben, der älter ist als der jetzige Zeitpunkt. Alle Dokumente, die gefunden werden, werden gelöscht und diese Änderungen per Soft Commit sichtbar (oder eher unsichtbar) gemacht. Soft Commits werden im Übrigen nur ausgeführt, wenn sich tatsächlich etwas am Index verändert hat. Es findet demnach keine häufige Cache-Invalidierung statt, nur weil sehr kurze Perioden definiert sind. Die UpdateRequestProcessorChain ist in den Standard UpdateHandler /update eingebunden.

 

Veröffentlicht am 20.04.2015 von Daniel Wrigley

Bereits zum dritten Mal fand am 15. und 16. April die Konferenz Hadoop Summit in Europa statt.
Die Location diesmal: Das SQUARE Conference Center in Brüssel.
Die Veranstalter Hortonworks und Yahoo! haben sich für diesen Ort entschieden, nachdem die Veranstaltung jedes Jahr größer wurde und nun mehr als 1.300 Gäste erwartet wurden.
Über 90 Personen zeigten in mehr als 60 Vorträgen, wie zentral Hadoop und dessen Ecosystem in der heutigen Zeit sind.
Zum ersten Mal durften wir als Partner von Hortonworks an der Veranstaltung teilnehmen und als Teil der Community erfahren, was Big Data und Hadoop für Potenzial eröffnen.

 

Veröffentlicht am 20.04.2015 von Bianca Kaustrup

Der Such-Server Apache Solr ist in Version 5.1.0 erschienen. Er beinhaltet 39 neue Features, 40 Bugfixes und 36 Optimierungen der vor kurzem veröffentlichten Version 5.1.
Die Bugfixes beheben unter anderem Probleme, die die API oder SolrCloud betreffen.

 

Veröffentlicht am 16.03.2015 von Johannes Peter

Als neues Mitglied des Consulting-Teams der SHI GmbH habe ich zwischen dem 23.03. – 24.03.2015 am Kurs „Solr Unleashed“ und anschließend zwischen dem 25.03. – 26.03.2015 am Kurs „Solr Under the Hood“ teilgenommen. Das Ziel der Teilnahme am Kurs „Solr Unleashed“ war es, einen tiefgehenden Überblick über die Verwendung und Struktur der Open-Source Suchplattform Apache Solr zu bekommen. Darauf aufbauend lernte ich im Kurs „Solr Under the Hood“ Lösungsansätze mit Solr für spezifischere Herausforderungen im Search-Bereich kennen.

 

Veröffentlicht am 15.03.2015 von Markus Klose

Eine der großen Herausforderung bei der Umsetzung einer Enterprise-Search ist die Anbindung der unterschiedlichsten Datenquellen. Jede Quelle hat ihre eigenen Schnittstellen, internen Strukturen und Daten bzw. Meta-Daten. Des Weiteren besitzen die Datenquellen eigene Sicherheitsmechanismen um den Zugriff auf die einzelnen Dokumente zu regeln.
Möchte man nun eine Enterprise-Search Applikation mit Solr umsetzen steht man vor eben dieser Herausforderung. Apache Solr kann „out-of-the-box“ nur SolrXML, JSON, CSV, Rich Content, Datenbanken und wenige Formate mehr. Dokumentbasierte Sicherheit, wie man sie bei einer Enterprise-Search erwartet, ist dabei noch nicht gegeben.
Der Herausforderung kann man nun auf unterschiedliche Weisen begegnen. Beispielsweise eigene Indexer Programme entwickeln oder auf bestehende zurückgreifen. Ersteres ist ein teurer und manchmal auch langwieriger Prozess. Crawling-Frameworks gibt es einige; eines jedoch sticht heraus. Nicht nur wegen der Fülle bestehender Konnektoren sondern auch weil es leicht mit Apache Solr integriert werden kann.
Fusion von Lucidworks ist zwar weit mehr als nur ein Connector-Framework, bietet jedoch unter anderem genau die Funktionalitäten die benötigt werden. Lucidworks Fusion hat neben den klassischen Datenquellen, wie „SharePoint“, „Dateisystem“, „Webseiten“ oder „Datenbank“, viele weitere, wie beispielsweise „JIVE“, „Twitter“, „Salesforge“, „Subversion“ oder „MongoDB“ und mit jedem Release kommen weitere hinzu. Die einzelnen Konnektoren bieten die Möglichkeit, die Dokumentberechtigung als Metainformation mit zu indexieren. Diese Funktionalität heißt bei Fusion „Security Trimming“ und kann sowohl während der Indexierung, als auch der Suche genutzt werden.

 

Veröffentlicht am 15.04.2015 von Markus Brandt

Lange Zeit haben Fachverlage ihr Heil darin gesucht, ihre Produkte immer spitzer zu vermarkten und noch in die entlegensten Nischen hinein zu entwickeln. Hohe Produktivitätszuwächse durch Automatisierung im Datenworkflow, die Möglichkeiten umfangreicher Zweitverwertungen vorhandener Inhalte und die Durchsetzbarkeit hoher Preise am Markt ermöglichten auch bei geringen Auflagen gute Gewinne. Kalkuliert wurde auf Basis bekannter Druckkosten, Nachdruck-Auflagen konnten marktgerecht geschätzt und kalkuliert werden, selbst für Restlager-Bestände gab es am Ende noch Verwertungsmöglichkeiten. Irgendwann drohte diese Entwicklung aber zu kippen. Wenn sich der fiktive „Leitfaden praktischer Arbeitsschutz für den Friedhofsgärtner“ am Ende doch nur als der 95. Arbeitsschutzratgeber entpuppt, ergänzt um zwei bis drei spezielle Checklisten, dann mag dafür niemand mehr einen besonders hohen Preis bezahlen. Und das schon gar nicht, wenn der Herausgeber des Werkes zugleich Vorsitzender eines Fachverbands ist, der auf seiner Homepage die gleichen Arbeitshilfen kostenlos zum Download bereitstellt. Verlage sind eben schon lange nicht mehr die einzigen Gatekeeper, die exklusiven Zugang zu Fachinformationen bieten. In der Nische ganz spezieller Berufszielgruppen erweist sich nun die Spezialisierung mancher Verlagssegmente durchaus als Falle, spätestens seit es darum geht, das notleidende Printgeschäft durch elektronische Angebote aufzubessern.

 

Veröffentlicht am 20.03.2015 von Markus Brandt

Kaum ein Thema scheint die Verlagswelt derzeit mehr zu faszinieren, als das Thema Suche. Wo man auch hinkommt, mit wem man auch spricht – die Suchtechnologie ist in aller Munde.
Aber warum ist das so, ist hier vielleicht ein neuer Modetrend am Werk? Liegt hierin ein neues Heilsversprechen für die Monetarisierung von Fach-Content, nachdem sich die Mobile-Hoffnungen größtenteils verflüchtigt haben? Tatsächlich kehrt an mancher Stelle schon wieder Ernüchterung in die anfängliche Such-Euphorie ein.

 

Wie man richtig mit Apache Solr kocht?

Veröffentlicht am 10.03.2015 von Markus Klose

Diese Frage beantwortet Rafal Kuc in der aktuellen Ausgabe seines Apache Solr Cookbooks.

In "Solr Cookbook Third Edition" beschreibt er typische Probleme bzw. Anwendungsfälle und deren Lösungen.

Das Buch richtet sich an Entwickler, die bereits Hintergrundwissen zu Apache Solr mitbringen.

Für diejenigen, die noch einen Einstieg in die innovative Suchtechnologie Apache Solr suchen, können wir unsere Solr Trainings empfehlen.

Ebenso wie das Buch "Einstieg in Apache Solr" von unseren Consultants Markus Klose und Daniel Wrigley.

 

Veröffentlicht am 10.03.2015 von Markus Klose

Apache Solr 5.0 ist nun bereits seit einiger Zeit veröffentlicht und es wird Zeit, dass wir auf die Unterschiede zwischen der alten und der neuen Version hinweisen und natürlich auch neue Funktionalitäten von Apache Solr 5.0 vorstellen. In diesem Blog nehme ich die Distribution, also das, was man sich herunterladen kann, etwas genauer unter die Lupe. Auf funktionale Änderungen werde ich in einem separaten Blog Beitrag eingehen. Die größte inhaltliche Änderung zwischen den beiden Distributionen - von der man immer wieder liest - ist, dass Apache Solr 5.0 nicht mehr als WAR Datei ausgeliefert wird. Das entspricht nur der halben Wahrheit, aber ich greife schon etwas vor. Beginnen wir den Vergleich doch mit der Verzeichnis Struktur, die man erhält wenn man die Solr Distributionen entpackt hat.

 

In der vergangenen Woche hat Grant Ingersoll – CTO von Lucidworks – erste Einblicke in das kommende Release Apache Solr 5.0 gegeben. Im Rahmen des einstündigen Webinars hat er von Verbesserungen, neuen Funktionalitäten in Apache Solr, als auch in Lucene berichtet.

In diesem Blog möchten wir kurz auf die Höhepunkte des kommenden Releases eingehen.

Lucidworks, die Firma hinter dem Open Source Projekt Apache Solr, hat am 30.01.2015 eine neue Version ihres Produktes veröffentlicht. Fusion 1.2 ist kein weiteres Bug Fix Release, sondern ein weiterer Meilenstein von Fusion.

Neben den obligatorischen Bug Fixes, sind in dieses Release viele Optimierungen und Neuerungen eingeflossen.

Viele Anbieter und Produkte werben damit, dass große, skalierbare und performante Search Cluster leicht zu erstellen und zu warten sind. Weder mit Apache Solr noch mit Elasticsearch ist dies eine große Herausforderung. Beide Such-Server bieten eine ausgereifte API um neue Collections anzulegen, zu löschen, Aliase zu verwalten und so weiter.

ABER !!! Wie verhalten sich diese Systeme im laufenden Betrieb? Sind die Daten immer redundant auf allen Knoten? Was passiert wenn ein Teil meines Clusters ausfällt oder nur durch Netzwerkprobleme kurzfristig abgeschnitten ist?

Oft genug hört man von Horrorgeschichten, dass ganze Search Cluster Installationen durch plötzlich auftretende Probleme korrumpiert bzw. zerstört werden. Um dies zu testen – damit man die richtige Wahl der Applikation bzw. der Technologie treffen kann – wurde ein Jepsen entwickelt. Jepsen werden wir in diesem Artikel kurz vorstellen und Testergebnisse bezüglich SolrCloud und Elasticsearch aufzeigen.

SEARCH & BIG DATA, BERATUNG, SCHULUNG, ENTWICKLUNG, SUPPORT, PUBLISHER SOLUTIONS
MIT APACHE SOLR, LUCENE, ELASTICSEARCH, SMARTLOGIC SEMAPHORE, SHI INFOPILOT