Wpadka w ogłoszeniu wynajmu domu przez australijską agencję nieruchomości pokazała, jak mocno branża polega na sztucznej inteligencji – i jakie niesie to ryzyka. Oddział LJ Hooker w Nowej Południowej Walii wykorzystał ChatGPT do stworzenia opisu nieruchomości, w którym pojawiły się fikcyjne szkoły, niby zlokalizowane w okolicy. Błąd szybko naprawiono, lecz sytuacja wywołała dyskusję, gdy agent odpowiedzialny za ogłoszenie stwierdził, że „wszyscy agenci” już używają AI.
Leanne Pilkington, prezes Real Estate Institute of Australia, przyznaje, że technologia wspomaga agentów w „rutynowych zadaniach”, by mieli więcej czasu na kontakty z klientami. Zaznacza jednak, że AI, choćby ChatGPT, „może generować błędy”, dlatego nie wolno jej ufać w pełni. Pilkington dodaje, że AI przydaje się do przygotowania ogłoszeń, blogów, odpowiedzi na e-maile czy raportów rynkowych, ale agenci muszą zachować ostrożność.
Ray White Group, największa sieć agencji nieruchomości w Australii, również sięga po AI do generowania treści i poprawiania zdjęć. Jason Alford, dyrektor ds. systemów w Ray White, tłumaczy, że technologia pomaga zwiększyć wydajność, choć zaznacza, że każde ogłoszenie i zdjęcie powinno być sprawdzone pod kątem dokładności. Cyfrowe „upiększanie” zdjęć jest coraz popularniejsze, ale klienci muszą wiedzieć, że obrazy są edytowane.
AI w tej branży wzbudza pytania o etykę i ryzyko wprowadzania w błąd. Australijska Komisja ds. Konkurencji i Konsumentów przypomina, że firmy muszą sprawdzać, czy generowane treści są zgodne z prawem ochrony konsumentów i nie wprowadzają klientów w błąd.
Wracając do pechowego ogłoszenia – LJ Hooker promował dom w Farley, NSW, opisując go jako położony blisko „świetnych placówek edukacyjnych”, czyli szkół Farley High School i Farley Primary School. Problem w tym, że żadna z tych szkół nie istnieje. Po interwencji „Guardian Australia” agencja poprawiła ofertę, usuwając fałszywe informacje.
Czyli co? Sztuczna inteligencja przydaje się w branży nieruchomości, ale – jak widać – czasem lubi puścić wodze fantazji.