C'era molto in corso nel mondo delle startup, come sempre, e l'equipaggio di Equity si è divertito a spiegare tutto.
Kirsten Korosec, Mary Ann Azevedo e Devin Coldewey hanno iniziato l'episodio di oggi del podcast di TechCrunch Equity con una discussione su WeRide, una startup cinese di veicoli autonomi, che sta cercando un'offerta pubblica iniziale negli Stati Uniti con una valutazione di $5 miliardi. La società ha anche recentemente ottenuto il via libera per testare i suoi veicoli senza conducente con passeggeri in California.
Il trio ha poi affrontato l'argomento di EliseAI che ha raccolto $75 milioni in una serie D, diventando un unicorno. La società di sette anni fa comunica con chatbot, email e risponde alle chiamate dagli inquilini su cose come visite agli appartamenti, richieste di manutenzione, rinnovi dei contratti di locazione e morosità. Avevamo sentimenti contrastanti su questo concetto, così come sui piani della società di espandersi nel settore sanitario.
Poi abbiamo approfondito l'argomento del lancio da parte di Elon Musk di Grok-2 e Grok-2 mini in versione beta. Il nuovo modello Grok AI può ora generare immagini sul social network X, anche se l'accesso a Grok è attualmente limitato agli utenti Premium e Premium+ su X. Per fortuna per noi (e per voi), Devin è uno dei nostri esperti in AI quindi è stato in grado di illustrarci le capacità e i potenziali rischi di Grok-2.
Il team ha quindi spostato l'attenzione sul fatto che questa settimana ci sono state due chiusure di startup: Tally e Score. Tally era una fintech di nove anni che aiutava i consumatori a gestire e saldare il debito della carta di credito. Aveva raccolto uno straordinario finanziamento di $172 milioni nel tempo da investitori come Andreessen Horowitz e Kleiner Perkins. Score era un'app di appuntamenti per persone con un buon o eccellente credito che è sopravvissuta solo per pochi mesi prima di essere chiusa.
E per ultimo, ma non meno importante, abbiamo approfondito un disegno di legge della California noto come SB 1047 che mira a fermare disastri reali causati da sistemi di IA prima che accadano. Devin ci ha aiutato a capire meglio chi sarebbe stato colpito. E il team ha discusso di quanto efficace potrebbe essere l'implementazione dei protocolli di sicurezza proposti nel tentativo di regolamentare alcune delle più grandi aziende di AI.